性能测试没你想的那么难,看完这篇文章就懂了
01 常见概念吞吐量(TPS, QPS)
简单来说就是每秒钟完成的事务数或者查询数。通常吞吐量大表明体系单位时间能处理的哀求数越多,所以通常盼望TPS越高越好
相应时间
即从哀求发出去到收到体系返回的时间。相应时间一般不取平均值,而是要去掉不稳定的值之后再取均值,比如常用的90%相应时间,指的就是去掉了10%不稳定的相应时间之后,剩下90%的稳定的相应时间的均值。从聚类的观点看,其实就是去掉离群点。
错误率
即错误哀求数与总哀求数之比。随着压力增加,有可能出现处理哀求处理不过来的情况,这时错误数会不断增加。
三者有极大的关联,任何孤立的数据都不能阐明问题。典型的关系是,吞吐量增加时,相应延迟有可能增加,错误率也有可能增加。因此,单拿出一个10w的TPS并不能阐明问题。
性能调优的思路
一般情况,调优需要有个前提条件,即无论是用线上的真实流水还是线下的压力测试让问题扩大化,明显化。
根据这些比力明显的征象去初判问题,收集证据去验证初判结果成立,然后分析征象产生的缘故原由,并尝试解决问题。
02 性能测试
对于新上的体系或者是有过较大代码改动的体系来说,做一次摸底测试还是很有必要的。一般来说,期望摸底的测试是一次对单机的压力测试。压力测试可以帮你大概搞清楚体系的极限TPS是多少,在压力上来时有没有暴露一些错误或者问题,体系大致的资源占用情况是什么,体系可能的性能瓶颈在哪。
如下是一次摸底测试的设置和结果。
这是用12000并发用户对10台机器压测的结果,可以看出,TPS到7w多,平均相应时间为82ms,错误率在2.5%。
从图中还可以得到哪些信息?首先,TPS在后期敏捷下落,实际上已经支持不了如此大的并发量,即进入崩溃区,这里有几个可能:
一是体系根本蒙受不了如此大的并发量
二是体系中心有问题导致TPS下跌。
其次,随着时间增长,错误率明显增加,阐明体系已经处理不了如此多的哀求。结合前面两点以及相对安稳的平均相应时间,大致可以推断体系没法蒙受如此大的并发。别的,由于是10台机器,单台的TPS大概在7000多,今后的调优可以以此为依据。
对于应用的特点,也要在这时间分析出来,即应用可能占用的资源。比如是CPU密集型应用还是IO密集型应用(还可以细分为是磁盘密集还是网络 )
https://i-blog.csdnimg.cn/blog_migrate/f641fbc0bcdff49c3ad9894985fc9e26.png
https://i-blog.csdnimg.cn/blog_migrate/d831d0362a6d7effe2a042b3890550dd.png
https://i-blog.csdnimg.cn/blog_migrate/91085d1deb7cbb146f1435bf7adfbdd1.png
https://i-blog.csdnimg.cn/blog_migrate/688016fab32a33416b10016a2e44279b.png
03 定义性能优化的目的
经常听到人说,做个性能优化,吞吐量越高越好;或者做个性能测试,目的TPS是50000。可实际拿到这个信息,可以或许做性能测试吗?这个目的富足清楚吗?
事实上,在我看来,未定义清楚的目的去做性能测试都是耍地痞。
性能优化的目的一般是吞吐量到达多少,90%相应时间小于多少,错误率小于多少。同时还需要关注其他的性能指标,cpu使用情况,内存使用情况,磁盘使用情况,带宽使用情况等。对于摸底测试已经发现问题的,可以针对该问题专门优化,比如负载较高,cpu消耗过大,则目的可能是TPS,相应时间以及错误率不变的情况下降低CPU负载。或者内存增长过快,gc较为频仍,则目的可能是找出可能的内存泄露,或者进行相关的jvm内存调优。总之,目的可以比力灵活调整,但肯定要明白。
04 分析
分析的过程较为灵活,基本上是一千个体系有一千种表现。这里很难一一阐明。仅谈谈一些常见的方法,工具以及思路。
01 针对CPU
针对cpu的监控,其实linux已经提供了两个比力好用的工具,一个是top,一个是vmstat。关于这两个命令就不细说了,关于cpu主要关注4个值:us(user), sy(system), wa(wait), id(idle)。理论上他们加起来应该等于100%。而前三个每一个值过高都有可能表现存在某些问题。
us过高:
代码问题
比如一个耗时的循环不加sleep,或者在一些cpu密集计算(如xml解析,加解密,加解压,数据计算)时没处理好
gc频仍
一个比力容易遗漏的问题就是gc频仍时us容易过高,因为垃圾回收属于大量计算的过程。gc频仍带来的cpu过高常伴有内存的大量颠簸,通过内存来判断并解决该问题更好。
小技巧:如何定位us过高的线程并检察它的状态。
a. top命令找到消耗us过高的进程pid
b. top -Hp pid找到对应的线程tid
c. printf %x tid转为16进制tid16
d. jstack pid | grep -C 20 tid16 即可查到该线程堆栈
sy过高:
上下文切换次数过多。通常是体系内线程数目较多,并且线程经常在切换,由于体系抢占相对切换时间和次数比力合理,所以sy过高通常都是主动让出cpu的情况,比如sleep或者lock wait, io wait。
wa过高:
等候io的cpu占比力多。
注意与上面情况的区别,io wait引起的sy过高指的是io不绝的wait然后唤醒,因为数目较大,导致上下文切换较多,强调的是动态的过程;而io wait引起的wa过高指的是io wait的线程占比力多,cpu切换到这个线程是io wait,到那个线程也是io wait,于是总cpu就是wait占比力高。
id过高:
许多人认为id高是好的,其实在性能测试中id高阐明资源未完全利用,或者压测不到位,并不是功德。
02 针对内存
关于java应用的内存,通常只需要关注jvm内存,但有些特别情况也需要关注物理内存。关于jvm内存,常见的工具有jstat 、jmap、pidstat、vmstat, top
https://i-blog.csdnimg.cn/blog_migrate/77cd6346cef4a2aa0818caedb18b9519.jpeg
jvm内存:
通常gc发生意味着总归是有一块地区空间不敷而触发gc。而许多导致异常gc的情况通常是持有了不必要的引用而没有即时的开释,比如像cache这样的地方就容易处理不好导致内存泄露引发异常gc。
有可能是程序的活动是正常的,但是由于没有设置对合适的gc参数导致异常gc,这种情况通常需要调优gc参数或者堆代大小参数。
Full gc 发生的情况:
永世代满
年老代满
minor gc晋升到旧生代的平均大小大于旧生代剩余大小
CMS gc中promotion fail或concurrent mode fail
OOM:
OOM经常伴随着异常gc,之所以单独拿出来讲,是因为它的危害更大一些,异常gc顶多是收集速度过快或者回收不了内存,但是最少有个缓冲时间,但是出了OOM问题就大了。
heap区,对象创建过多或持有太多无效引用(泄露)或者堆内存分配不敷。使用jmap找到内存中对象的分布,使用ps找到相应进程及初始内存设置。
stack区, 不正确的递归调用。
perm区,初始加载包过多,分配内存不敷。
堆外内存区,分配ByteBuffer未开释导致。
03 针对IO
针对网络IO比力有用的工具有sar、netstat是一个非常牛逼的命令,可以助于排查许多问题, 针对文件io的工具有pidstat、iostat
1、文件IO:
从技术上来说,对于大文件IO可以采取的措施是异步批处理,采取异步方式用于削峰并累计buffer,采取批处理可以或许让磁盘寻道连续从而更加快速。
2、网络IO: 网络IO的问题较为复杂,仅举几个常见的
大量TIME_WAIT。
根据TCP协议,主动发起关闭连接的那一方,关闭了自己这端的连接后再收到被动发起关闭的那一方的关闭哀求后,会将状态变为TIME_WAIT,并等候2MSL, 目的是等候自己的回执发送到对方。假如在服务器上发现大量TIME_WAIT,阐明服务器主动断开了连接,什么情况下服务器会主动断开连接,很可能是客户端忘了断开连接,所以一个典型的案例就是jdbc连接忘记关闭,则数据库服务器可能会出现大量的TIME_WAIT状态。
大量CLOSE_WAIT。
CLOSE_WAIT状态,在收到主动关闭连接的一方发出关闭连接之后,被动关闭的一方进入CLOSE_WAIT状态,假如这时间被hang住了没进行后续关闭,则会出现大量CLOSE_WAIT。啥情况会被hang住呢,举几个例子,比如刚刚的忘记关闭数据库连接,在应用服务器这端,大量的浏览器哀求进来,由于没有连接池连接被hang住,这时间浏览器等候肯定时间超时发送关闭连接哀求,而应用服务器这边由于servlet线程被hang住了,自然没有办法走第二个关闭归去。因此在应用服务器出现大量CLOSE_WAIT。
另一个例子是httpClient的坑,在调用response.getEntity(); 前都不会做inputStream.close(),假如在调用response.getEntity()前就返回了,就狗带了。
资源分享
下方这份完备的软件测试视频学习教程已经上传CSDN官方认证的二维码,朋侪们假如需要可以自行免费领取 【包管100%免费】
https://i-blog.csdnimg.cn/blog_migrate/ae678aec7b2f5c858b45b7da10d19d64.png#pic_center
https://i-blog.csdnimg.cn/blog_migrate/f0c6b50605de96972785cd62818dbded.png#pic_center
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]