web项目测试实战性能测试结果分析样章报告
web实验报告实验总结(一)

web实验报告实验总结(一)前言作为一名资深的创作者,在进行web实验报告实验后,我对整个实验感到非常满意。
在这篇总结文稿中,我将会针对这次实验进行详细的总结和反思。
实验背景本次实验的目标是创建一个web实验报告,以展示对于web开发的理解和技能的应用。
通过这次实验,我能够进一步熟悉和掌握各种web开发技术和工具,同时提升我的团队协作能力和沟通能力。
实验过程我首先进行了实验需求的分析和设计,明确了实验目标和任务。
然后,我选择了合适的开发工具,包括文本编辑器、代码版本控制系统等。
接着,我开始进行编码和调试,并逐步完善和优化我的web实验报告。
最后,我进行了测试和评估,确保实验报告能够在不同的平台和浏览器上正常展示和运行。
正文实验成果通过这次实验,我成功地创建了一个具有良好用户体验的web实验报告。
我的实验报告包含了完整的内容,包括实验背景、实验目的、实验过程和实验结果等。
我运用了html、css和javascript等技术,使得实验报告的界面美观、交互性强。
同时,我还保证了实验报告的可访问性和响应式设计。
实验收获通过这次实验,我学到了很多关于web开发的知识和技能。
我熟练掌握了html、css和javascript等前端技术,能够创建精美的网页并实现丰富的交互效果。
我还学会了使用代码版本控制系统进行团队协作和代码管理,提高了我的项目管理能力。
此外,我还学会了进行测试和评估,并解决了一些兼容性和性能方面的问题。
实验感想这次实验让我更加深入地理解了web开发的重要性和挑战。
我意识到web开发需要不断学习和更新技术,保持对新技术的敏感度和热情。
在实践中,我也遇到了一些困难和问题,但通过自己的努力和团队的支持,我最终克服了这些困难并取得了较好的成果。
这次实验增强了我的自信心和动手能力,我相信在今后的学习和工作中会更加顺利。
结尾通过这次web实验报告实验,我不仅提升了我的web开发能力,还锻炼了我的团队合作和沟通能力。
web测试报告

web测试报告本报告旨在介绍对网站进行的测试工作,包括测试目的和范围,以及所使用的方法和工具。
测试目的:验证网站在不同浏览器和操作系统上的兼容性确保网站的功能正常运行,并检测潜在的错误和缺陷评估网站的性能,包括加载速度和响应时间验证网站的安全性,检测可能存在的漏洞和风险测试范围:网站的主要功能模块,包括登录、注册、搜索等不同终端设备和浏览器的兼容性测试网站的性能测试,包括页面加载时间、并发用户数等网站的安全性测试,包括SQL注入、跨站脚本攻击等测试方法和工具:手动测试:通过人工操作模拟用户行为,检测网站的功能和用户体验自动化测试:使用测试工具,编写测试脚本,自动执行测试用例性能测试工具:如JMeter等,用于模拟并发用户访问和测量响应时间安全性测试工具:如Burp Suite等,用于检测网站的安全漏洞本报告将详细描述测试过程中的发现和结果,并提供相应的建议和改进措施。
请阅读以下章节以获取更多详细信息。
明确列出测试的目标,包括对网站功能、性能、安全性等方面的测试要求。
评估网站功能的完整性和正确性,包括页面导航、表单提交、搜索功能等。
测试网站的性能,包括加载速度、响应时间等。
检查网站的安全性,包括对潜在安全漏洞的扫描和检测。
评估网站的易用性和用户体验,包括页面布局、内容呈现等方面的测试。
验证网站在不同浏览器和设备上的兼容性,确保用户在不同环境中都能良好地访问网站。
测试范围详细描述测试的范围,包括测试的页面、功能模块、浏览器兼容性等方面。
本次测试采用以下测试方法和工具:功能测试:通过对网站的各种功能进行测试,验证其是否正常运行。
性能测试:通过模拟多种情况,测试网站的性能指标,包括响应时间、并发用户数等。
安全测试:通过检测网站的漏洞和弱点,评估其安全性,保护用户数据的安全。
以上是本次测试采用的主要测试方法和工具,以确保网站的功能、性能和安全达到预期标准。
根据测试的具体内容和方法,给出各项测试的结果和评估。
Web应用性能测试实验报告

Web应用性能测试实验报告一、概述本实验旨在对Web应用的性能进行评估和优化,以确保其在高负载情况下能够稳定运行并提供良好的用户体验。
通过对不同测试工具的使用和实验数据的收集分析,我们可以得出有效的性能测试结果和优化方案。
二、实验环境1. 测试对象:以XXX网站为例进行性能测试2. 测试工具:使用JMeter进行负载测试、使用GTMetrix进行页面加载速度测试3. 测试参数:模拟1000并发用户访问网站、分析页面加载速度、检测服务器响应时间等三、实验过程1. JMeter负载测试- 设置并发用户数为1000,模拟用户访问网站的行为- 分析各项性能指标,如响应时间、吞吐量等- 针对性能瓶颈进行优化,比如数据库查询效率、静态资源加载等2. GTMetrix页面加载速度测试- 输入网站URL,进行页面加载速度测试- 分析各项指标,包括页面大小、加载时间、优化建议等- 优化网站前端性能,如图片压缩、CSS、JavaScript文件合并等四、实验结果分析1. JMeter测试结果- 平均响应时间为2秒,吞吐量为1000 requests/second- 发现数据库查询效率低下导致性能下降,优化数据库索引可改善性能2. GTMetrix测试结果- 页面加载速度为5秒,优化建议包括压缩图片、减少HTTP请求等- 通过优化前端资源,加载速度得到明显提升,用户体验得到改善五、实验结论通过性能测试和优化实验,我们发现了网站在高负载情况下存在的性能瓶颈,并采取了相应的优化措施,显著提升了网站的性能表现和用户体验。
同时,定期进行性能测试和优化是保证Web应用高效运行的关键,有助于提升网站的竞争力和用户满意度。
六、未来展望在今后的工作中,我们将继续关注Web应用性能测试和优化,不断提升网站的性能表现和用户体验,以满足用户不断增长的需求和提升竞争力。
同时,我们也将探索更多的性能测试工具和优化技术,不断完善Web应用的性能优化体系,为用户提供更优质的服务。
web测试报告

web测试报告标题:网站功能测试报告一、引言随着互联网的快速发展,作为企业或个人形象展示的网站扮演着越来越重要的角色。
为了保证网站的质量和稳定性,进行网站功能测试是必不可少的步骤。
本报告旨在对某网站的功能测试进行评估和总结。
二、测试目标及方法本次功能测试的目标是确保网站的功能是否按照需求正常运行。
测试的方法包括了手动测试和自动化测试两种。
手动测试主要通过测试人员对各个功能模块进行操作和观察,自动化测试则使用测试工具对网站进行自动化测试。
三、测试内容本次测试主要涉及以下功能模块的测试:登录、注册、搜索、发布信息、支付、评论和个人中心。
四、测试过程及结果通过手动测试和自动化测试两种方法进行测试,对网站的各个功能模块进行了全面的覆盖。
测试结果如下:1. 登录和注册功能测试发现,登录功能正常,可以成功登录,并且密码错误时会有相应的提示。
注册功能可以成功注册新用户,并且要求填写的信息完整和合法。
2. 搜索功能经过多次搜索测试,搜索功能能够准确、快速地返回相应的结果,并且能够根据不同的搜索条件进行筛选。
3. 发布信息功能测试发现,发布信息功能界面友好,填写的信息能被准确地保存和展示,同时能够上传图片,并在发布后正确显示。
4. 支付功能测试发现,支付功能能够正确地跳转到支付页面,并且能够成功完成支付流程,同时支付成功后能够及时通知用户。
5. 评论功能测试发现,评论功能能够正常展示已有评论,并且用户可以成功进行评论,同时能够正确展示评论的内容和用户信息。
6. 个人中心功能测试发现,个人中心页面能够正确显示用户的个人信息,并且能够修改和保存个人信息,同时能够查看用户的发布信息和交易记录。
五、问题和建议根据测试结果,发现以下问题并提出建议:1. 注册功能的验证码缺少加密验证,建议增加加密验证,提高账号注册的安全性。
2. 支付功能在支付成功后没有明确的订单信息提示,建议在支付成功后加入订单信息的提示。
3. 个人中心页面的交易记录显示不够清晰,建议对交易记录进行详细分类,方便用户查看。
Web性能测试实战

Web性能测试实战2010年08月29日《Web性能测试实战》作者:陈绍英夏海涛金成姬著(2006年06月第1版第1次)电子工业出版社 Publishing House of Electronics Industry北京市海淀区万寿路173信箱(100036)内容简介本书是一本总结实践经验和成果的作品,主要为测试人员规划、设计、实施web性能测试而编写。
本书既包含web性能测试的基础理论,又包含理论在实践中的应用。
本书第1章介绍了性能测试基础知识和性能测试常见的误区。
第2章专门针对web性能测试提出了“web全面性能测试模型”,把制订性能测试策略、编写测试用例计划以及使用模型的方法融会在一起,提供了规划与设计性能测试的新思路。
第3章进一步讨论了如何在项目中进行性能测试需求分析、设计与实施性能测试,并深入讨论了基于场景设计性能测试用例的方法。
第4章则介绍了针对web应用程序进行性能分析的基本方法。
第5章是案例部分,分别以银行卡、电子政务、门户网站等典型web应用系统为实例,讨论了如何在项目中应用“web全面性能测试模型”。
通过真实的实例,向读者展示了如何在项目中制订性能测试计划、实施与控制性能测试、分析系统瓶颈等内容。
本书主要针对项目经理、测试组长、测试(设计)工程师以及对性能测试感兴趣的开发人员。
通过本书的学习,可以更加规范地做好性能测试设计与实施工作。
陈绍英,北京大学软件工程硕士.拥有多年的软件开发以及测试经验,现在主要从事软件测试工作,研究方向为软件测试过程管理和测试分析技术.性能测试等.拥有大型电子政务系统.银行卡业务系统等软件项目的测试管理及技术经验.善于组织和协调工作,在软件项目管理和测试管理方面拥有很高的能力,在工作中积累了丰富的管理经验.夏海涛,吉林大学计算机系硕士.拥有多个大型金融.电信.税务和电子政务系统等行业软件项目的测试项目管理及技术实施经验.熟悉Mercury系列的测试工具,并曾参与规划和实现基于以上工具的自动化回归测试和性能测试解决方案.曾经自行开发性能测试工具并成功付诸应用.主要研究方向为持续集成与自动化测试框架设计.自动化功能回归测试.大型项目群性能测试等.金成姬,博彦科技本地化工程师,从事日语.韩语等语种软件产品的本地化工作.P5,性能测试的重要概念请求响应时间:指的是客户端发出请求道得到响应的整个过程的时间。
web实验报告结论

web实验报告结论
《Web实验报告结论》
在进行了一系列的Web实验后,我们得出了一些重要的结论。
通过这些实验,我们能够更好地理解Web技术的应用和发展趋势,为未来的Web开发工作提
供了宝贵的参考和指导。
首先,我们发现在Web实验中,响应速度和性能优化是至关重要的。
通过对网站加载速度和响应时间的测试,我们发现了一些影响性能的因素,比如服务器
的带宽、网页的大小和复杂度等。
因此,在进行Web开发时,我们需要注重性能优化,以提高用户体验和满足用户需求。
其次,我们也发现了Web安全性的重要性。
在进行实验时,我们发现了一些常见的Web安全漏洞,比如跨站脚本攻击(XSS)和SQL注入等。
因此,在开发Web应用程序时,我们需要加强安全性措施,比如输入验证、数据加密等,以
保护用户的隐私和数据安全。
此外,我们还发现了Web技术的不断创新和发展。
通过实验,我们了解到了一些新的Web技术和框架,比如响应式设计、单页面应用程序(SPA)等。
这些
新技术为Web开发带来了更多的可能性和挑战,我们需要不断学习和更新知识,以跟上Web技术的发展趋势。
综上所述,通过这些Web实验,我们得出了一些重要的结论:性能优化、安全性和技术创新是Web开发中需要重点关注的方面。
我们将会在未来的工作中,继续努力,不断提升自己的技术水平,为Web应用程序的发展做出更大的贡献。
WEB类软件性能测试总结报告模板(VAL TEST REPORT WEB)

性能测试总结报告模板文档编号:XXXX-QM_VV_TST_TMP_PTR文档信息:公司级别模板文件文档名称:性能测试总结报告模板文档类别:工程过程类密级:内部版本信息:1.0建立日期:创建人:审核者:批准人:批准日期:保管人:存放位置:文档修订记录文档审批信息目录1引言 (4)1.1目的 (4)1.2适用范围 (4)1.3背景描述 (4)1.4引用文件 (4)1.5术语表 (4)1.6参考资料 (4)2性能测试环境 (4)3性能测试需求和策略 (4)4性能测试结果分析 (4)5性能评价 (4)6性能改进建议 (5)7性能测试工作总结 (5)7.1资源使用情况 (5)7.2测试进度分析 (5)7.3经验教训 (5)8附录 (5)8.1附录A-相关过程 (5)8.2附录B-相关规程 (5)8.3附录C-相关指南 (5)8.4附录D-相关模板 (5)1引言1.1目的【说明编写本测试报告的目的】1.2适用范围【说明测试报告所从属的软件系统的名称以及本报告范围(包含的测试类型等);指出预期的读者范围】1.3背景描述【说明在开始编写本测试报告之前必须完成的各项工作】1.4引用文件【测试报告依据的文档,在此部分应予列出】1.5术语表【列出本报告专用的术语(包括缩写词),并给出解释】1.6参考资料2性能测试环境【概述本次性能测试实施的软硬件环境】3性能测试需求和策略【概述本次性能测试需求和测试策略】4性能测试结果分析【以本次性能测试数据为依据,对本次性能测试结果进行分析】5性能评价【对照性能测试需求,对被测软件的性能做出评价】6性能改进建议【结合本次性能测试需求和性能测试结果,针对性能测试发现的问题,给出改进建议】7性能测试工作总结7.1资源使用情况【列出本次测试计划工作量分布和实际工作量的分布,对其中出现的差异进行分析】7.2测试进度分析【对照测试计划的安排,总结测试效率及相应的原因分析】7.3经验教训【总结全过程中获得的经验及纠正错误或缺陷等问题的教训,以及改进建议】8附录8.1附录A-相关过程《产品测试过程》8.2附录B-相关规程《性能测试规程》8.3附录C-相关指南8.4附录D-相关模板。
WEB软件测试总结报告

XXX项目测试总结报告目录1.项目测试结果 (1)1.1 BUG严重程度 (1)1.2 BUG问题分布状况 (2)2.测试结论 (2)2.1界面测试 (2)2.2功能测试 (2)2.3兼容性测试(Windows下) (2)2.4易用性 (3)2.5 负载/压力测试 (3)3.软件问题总结与分析 (5)4.建议 (6)1.项目测试结果1.1 BUG严重程度测试发现的bug主要集中在次要功能和轻微,属于一般性的缺陷,但测试的时候出现了37个主逻辑级别的bug,以及严重级别的2个.1.2 BUG问题分布状况由上图可以看出,主要为代码错误占36%,以及标准规范的问题占35%,界面优化占17%,设计缺陷占9%,其他占2%2.测试结论2.1界面测试网站系统实现与设计稿一致。
站点的导航条位置,导航的内容布局,首页呈现的样式与需求一致。
网站的界面符合标准和规范,直观性强。
2.2功能测试分不同账号总权限账号,以及店长账号分别进行功能测试。
1:链接测试无问题,不存在死链接,测试链接都存在.2:对页面各个不同数据的测试,主要的出入库,销售报表,订单查看管理等一一对应,不存在数据有误差的问题.2.3兼容性测试(Windows下)测试总的浏览器包括:360极速浏览器,火狐浏览器,谷歌浏览器,IE浏览器,测试通过,主要逻辑以及次要功能都没问题,因为浏览器的不同,导致界面浏览不一定相同,例如有的界面浏览页面显示正常,有的界面显示不一样。
2.4易用性网站实现了如下易用性:1. 输入限制的正确性2. 输入限制提示信息的正确性,可理解性,一致性3. 界面排版美观4. web应用系统易于导航,直观5. web应用系统的页面结构、导航、菜单、连接的风格一致2.5 负载/压力测试主要测试了压了测试:测试结果60秒内发请求,一次1000个请求,总共请求了2230个请求,成功了2208个失败两个1:每个请求用时30ms(吞吐量)2:服务器收到请求,响应页面要花费的时间:332ms3:并发的每个请求平均消耗时间:33.ms4:请求一共花了:72s第一个1000个人同时发出1000个请求总共1004个请求失败4个,成功10001:每个请求用时9ms(吞吐量)2:服务器收到请求,响应页面要花费的时间:109128ms3:并发的每个请求平均消耗时间:109.ms4:请求一共花了:109s1:如上图当同时在线人数达到45时候,服务器崩溃,导致成功率一直下降到达40%,直到结束总请求达到:26796.平均每个请求响应时间为281ms,系统吞吐量(tps)20.89/s. 因为系统被困导致数据反映不准.3.软件问题总结与分析从测试过程中发现bug的严重程度与分布状况来看,引起缺陷主要有以下几方面:1. 没有需求文档需求文档只是个大纲的形式,没有详细的需求文档。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
5.4.2测试结果分析LoadRunner性能测试结果分析是个复杂的过程,通常可以从结果摘要、并发数、平均事务响应时间、每秒点击数、业务成功率、系统资源、网页细分图、Web服务器资源、数据库服务器资源等几个方面分析,如图5- 1所示。
性能测试结果分析的一个重要的原则是以性能测试的需求指标为导向。
我们回顾一下本次性能测试的目的,正如错误!未找到引用源。
所列的指标,本次测试的要求是验证在30分钟内完成2000次用户登录系统,然后进行考勤业务,最后退出,在业务操作过程中页面的响应时间不超过3秒,并且服务器的CPU 使用率、内存使用率分别不超过75%、70%,那么按照所示的流程,我们开始分析,看看本次测试是否达到了预期的性能指标,其中又有哪些性能隐患,该如何解决。
图5- 1性能测试结果分析流程图结果摘要LoadRunner进行场景测试结果收集后,首先显示的该结果的一个摘要信息,如图5- 2所示。
概要中列出了场景执行情况、“Statistics Summary(统计信息摘要)”、“Transaction Summary(事务摘要)”以及“HTTP Responses Summary(HTTP响应摘要)”等。
以简要的信息列出本次测试结果。
图5- 2性能测试结果摘要图场景执行情况该部分给出了本次测试场景的名称、结果存放路径及场景的持续时间,如图5- 3所示。
从该图我们知道,本次测试从15:58:40开始,到16:29:42结束,共历时31分2秒。
与我们场景执行计划中设计的时间基本吻合。
图5- 3场景执行情况描述图Statistics Summary(统计信息摘要)该部分给出了场景执行结束后并发数、总吞吐量、平均每秒吞吐量、总请求数、平均每秒请求数的统计值,如图5- 4所示。
从该图我们得知,本次测试运行的最大并发数为7,总吞吐量为842,037,409字节,平均每秒的吞吐量为451,979字节,总的请求数为211,974,平均每秒的请求为113.781,对于吞吐量,单位时间内吞吐量越大,说明服务器的处理能越好,而请求数仅表示客户端向服务器发出的请求数,与吞吐量一般是成正比关系。
图5- 4统计信息摘要图Transaction Summary(事务摘要)该部分给出了场景执行结束后相关Action的平均响应时间、通过率等情况,如图5- 5所示。
从该图我们得到每个Action的平均响应时间与业务成功率。
注意:因为在场景的“Run-time Settings”的“Miscellaneous”选项中将每一个Action当成了一个事务执行,故这里的事务其实就是脚本中的Action。
图5- 5事务摘要图HTTP Responses Summary(HTTP响应摘要)该部分显示在场景执行过程中,每次HTTP请求发出去的状态,是成功还是失败,都在这里体现,如图5- 6所示。
从图中可以看到,在本次测试过程中LoadRunner共模拟发出了211974次请求(与“统计信息摘要”中的“Total Hits”一致),其中“HTTP 200”的是209811次,而“HTTP 404”则有2163,说明在本次过程中,经过发出的请求大部分都能正确响应了,但还是有部分失败了,但未影响测试结果,“HTTP 200”表示请求被正确响应,而“HTTP 404”表示文件或者目录未能找到。
有朋友可能会问,这里出现了404的错误,为什么结果还都通过了。
出现这样问题的原因是脚本有些页面的请求内容并非关键点,比如可能请求先前的cookie信息,如果没有就重新获取,所以不会影响最终的测试结果。
图5- 6 HTTP响应摘要常用的HTTP状态代码如下:400 无法解析此请求。
401.1 未经授权:访问由于凭据无效被拒绝。
401.2 未经授权: 访问由于服务器配置倾向使用替代身份验证方法而被拒绝。
401.3 未经授权:访问由于ACL 对所请求资源的设置被拒绝。
401.4 未经授权:Web 服务器上安装的筛选器授权失败。
401.5 未经授权:ISAPI/CGI 应用程序授权失败。
401.7 未经授权:由于Web 服务器上的URL 授权策略而拒绝访问。
403 禁止访问:访问被拒绝。
403.1 禁止访问:执行访问被拒绝。
403.2 禁止访问:读取访问被拒绝。
403.3 禁止访问:写入访问被拒绝。
403.4 禁止访问:需要使用SSL 查看该资源。
403.5 禁止访问:需要使用SSL 128 查看该资源。
403.6 禁止访问:客户端的IP 地址被拒绝。
403.7 禁止访问:需要SSL 客户端证书。
403.8 禁止访问:客户端的DNS 名称被拒绝。
403.9 禁止访问:太多客户端试图连接到Web 服务器。
并发数分析“Running Vusers(运行的并发数)”显示了在场景执行过程中并发数的执行情况。
它们显示Vuser的状态、完成脚本的Vuser的数量以及集合统计信息,将这些图与事务图结合使用可以确定Vuser的数量对事务响应时间产生的影响。
图5- 7显示了在OA系统考勤业务性能测试过程中Vusers运行情况,从图中我们可以看到,Vusers的运行趋势与我们场景执行计划中的设置是一样,表明在场景执行过程中,Vusers是按照我们预期的设置运行的,没有Vuser出现运行错误,这样从另一个侧面说明我们的参数化设置是正确的,因为使用唯一数进行参数化设置,如果设置不正确,将会导致Vuser运行错误。
在脚本中我们加入了这样一段代码:if (atoi(lr_eval_string("{num}")) > 0){lr_output_message("登录成功,继续执行.");}else{lr_error_message("登录失败,退出测试");return -1;}上述代码的意思是说,如果登录失败了,就退出脚本的迭代,那么什么原因可能会导致登录失败呢?就是我们前面参数化的设置,一旦Vuser分配不到正确的登录账号,就可能导致登录失败,从而引起Vuser停止运行。
所以,从图5- 7的表现,可以认为参数化是没有问题的。
图5- 7运行的并发数图测试脚本中我们还使用了集合点,那么这里还可以看看集合点在场景执行过程中的表现,点击左边的“New Graph”,出现图5- 8,展开“Vusers”前的加号,双击“Rendezvous”,出现集合点的图形后,点击【Close】,关闭添加新图界面。
图5- 8添加集合点统计图集合点的图形如图5- 9所示,从图中可以看到,所有用户到达集合点后,立刻就释放了。
与之前设定的集合点策略设置“所有运行用户到达后释放“是一致的。
假设这样的一种情况,Running的Vusers有10个,集合点策略设置是“所有运行用户到达后释放”,而集合点图形显示的最大释放Vusers是7个,那么就表示有些Vuser超时了,引起超时的原因可能是Vuser得到的响应超时了,可以结合平均事务响应时间再详细分析原因。
图5- 9集合点状态图我们本次测试Running Vusers与集合点是一致,说明整个场景执行过程中,并发数用户的执行正确,OA系统测试服务器能够应付7个并发用户的业务操作。
响应时间在性能测试要求中我们知道,有一项指标是要求登录、考勤业务操作的页面响应时间不超过3秒,那么本次测试是否达到了这个要求呢?我们先来看“Average Transaction Response Time(平均事务响应时间图)”(图5- 10),这张图是平均事务响应时间与结果摘要中的“Transaction Summary”合成的。
图5- 10平均事务响应时间图从图形下部我们可以看到,登录部分对应的Action是“submit_login”,考勤业务提交对应的Action是“submit_sign”,他们的“Average Time(平均响应时间为)”分别是4.425秒与0.848秒,从这两个数值来看,考勤业务的事务响应时间0.848秒小于预期的3秒,达到了要求,而登录是4.425秒,大于预期的3秒,不符合要求。
这样的结果是不正确的,因为在统计的登录业务的时候,我们没有去除思考时间,所以,登录功能的实际事务时间应该是4.425秒-3秒=1.425秒,小于预期的3秒,故登录业务的事务响应时间也达到了我们的要求。
在平时的性能测试活动中,统计结果的时候需要去掉思考时间,加上思考时间是为了真实的模拟用户环境,统计结果中除去思考时间是为了更真实的反映服务器的处理能力,两者并不矛盾。
看完了“Average Time”,我们再看“90 Percent Time”,这个时间从某种程度来说,更准确衡量了测试过程中各个事务的真实情况,表示90%的事务,服务器的响应都维持在某个值附近,“Average Time”值对于平均事务响应时间变动趋势很大的情况统计就不准确了,比如有三个时间:1秒、5秒、12秒,则平均时间为6秒,而另外一种情况:5秒、6秒、7秒,平均时间也为6秒,显然第二种比第一种要稳定多了。
所以,我们在查看平均事务响应时间的时候,先看整体曲线走势,如果整体趋势比较平滑,没有忽上忽下的波动情况,取“Average Time”与“90 Percent Time”都可以,如果整体趋势毫无规律,波动非常大,我们就不用“Average Time”而使用“90 Percent Time”可能更真实些。
从图5- 10可以看出,所有Action平均事务响应时间的趋势都非常平滑,所以使用“Average Time”与“90 Percent Time”差别不是很大,用哪个都可以。
这里是使用最常用的统计方法“90 Percent Time”。
登录业务的“90 Percent Time”是5.298秒-3秒(思考时间)=2.298秒,考勤业务的“90 Percent Time”是1.469秒,没有思考时间,那么就是实打实的表5- 1测试结果对照表一每秒点击数“Hits per Second(每秒点击数)”反映了客户端每秒钟向服务器端提交的请求数量,如果客户端发出的请求数量越多,与之相对的“Average Throughput (bytes/second)”也应该越大,并且发出的请求越多会对平均事务响应时间造成影响,所以在测试过程中往往将这三者结合起来分析。
图5- 11显示的是“Hits per Second”与“Average Throughput (bytes/second)”的复合图,从图中可以看出,两种图形的曲线都正常并且基本一致,说明服务器能及时的接受客户端的请求,并能够返回结果。
如果“Hits per Second”正常,而“Average Throughput (bytes/second)”不正常,则表示服务器虽然能够接受服务器的请求,但返回结果较慢,可能是程序处理缓慢。