web项目测试实战性能测试结果分析免费

合集下载

web实验报告实验总结(一)

web实验报告实验总结(一)

web实验报告实验总结(一)前言作为一名资深的创作者,在进行web实验报告实验后,我对整个实验感到非常满意。

在这篇总结文稿中,我将会针对这次实验进行详细的总结和反思。

实验背景本次实验的目标是创建一个web实验报告,以展示对于web开发的理解和技能的应用。

通过这次实验,我能够进一步熟悉和掌握各种web开发技术和工具,同时提升我的团队协作能力和沟通能力。

实验过程我首先进行了实验需求的分析和设计,明确了实验目标和任务。

然后,我选择了合适的开发工具,包括文本编辑器、代码版本控制系统等。

接着,我开始进行编码和调试,并逐步完善和优化我的web实验报告。

最后,我进行了测试和评估,确保实验报告能够在不同的平台和浏览器上正常展示和运行。

正文实验成果通过这次实验,我成功地创建了一个具有良好用户体验的web实验报告。

我的实验报告包含了完整的内容,包括实验背景、实验目的、实验过程和实验结果等。

我运用了html、css和javascript等技术,使得实验报告的界面美观、交互性强。

同时,我还保证了实验报告的可访问性和响应式设计。

实验收获通过这次实验,我学到了很多关于web开发的知识和技能。

我熟练掌握了html、css和javascript等前端技术,能够创建精美的网页并实现丰富的交互效果。

我还学会了使用代码版本控制系统进行团队协作和代码管理,提高了我的项目管理能力。

此外,我还学会了进行测试和评估,并解决了一些兼容性和性能方面的问题。

实验感想这次实验让我更加深入地理解了web开发的重要性和挑战。

我意识到web开发需要不断学习和更新技术,保持对新技术的敏感度和热情。

在实践中,我也遇到了一些困难和问题,但通过自己的努力和团队的支持,我最终克服了这些困难并取得了较好的成果。

这次实验增强了我的自信心和动手能力,我相信在今后的学习和工作中会更加顺利。

结尾通过这次web实验报告实验,我不仅提升了我的web开发能力,还锻炼了我的团队合作和沟通能力。

web系统性能测试报告模板

web系统性能测试报告模板

1. 总述1.1测试对象数据采集测试系统1.2测试目的确定系统支持的最大并发用户数(系统的处理能力能达到2次请求/分钟)1.3测试环境1.4测试依据1.5参考资料1.6术语及缩写词●测试时间: 一轮测试从开始到结束所使用的时间●并发线程数: 测试时同时访问被测系统的线程数。

注意, 由于测试过程中, 每个线程都是以尽可能快的速度发请求, 与实际用户的使用有极大差别, 所以, 此数据不等同于实际使用时的并发用户数。

●每次时间间隔: 测试线程发出一个请求, 并得到被测系统的响应后, 间隔多少时间发出下一次请求。

●平均响应时间: 测试线程向被测系统发请求, 所有请求的响应时间的平均值。

●处理能力: 在某一特定环境下, 系统处理请求的速度。

●cache影响系数: 测试数据未必如实际使用时分散, cache在测试过程中会比实际使用时发挥更大作用, 从而使测试出的最高处理能力偏高, 考虑到这个因素而引入的系数。

1.7用户习惯操作频率: 根据用户使用习惯估算出来的, 单个用户在一段时间内, 使用此类功能的次数。

通常以一天内某段固定的高峰使用时间来统计, 如果一天内没有哪段时间是固定的高峰使用时间, 则以一天的工作时间来统计。

1.8预期平均响应时间:由用户提出的, 希望系统在多长时间内响应。

注意, 这个值并不是某一次访问的时间, 而是一段时间多次访问后的平均值。

1.9最大并发用户数:在给定的预期平均响应时间下, 系统最多能支持多少个并发用户。

这个数据就是实际可以同时使用系统的用户数。

1.10计算公式●成功率=成功次数÷(成功次数+失败次数)●处理能力=成功次数÷测试时间●最短平均响应时间=MIN(平均响应时间)●最高处理能力=MAX(处理能力)×(1-cache影响系数)2. 最大并发用户数=(最高处理能力-1÷(预期平均响应时间-最短平均响应时间+(1÷最高处理能力)))÷用户习惯操作频率, 此公式要注意各时间单位的不同和转换3. 测试方法3.1测试模型3.2测试过程简述3.3通过编写特定的测试流程, 使用多线程技术, 模拟多个浏览器持续一段时间并发访问被测系统, 记录系统相关的一系列信息, 计算出系统支持的最大并发用户数3.4需记录的数据测试时间平均响应时间成功次数失败次数web服务器CPU利用率(平均、最大)数据库服务器CPU利用率(平均、最大)4. 测试用例5. 测试结果5.1查看记录内容5.1.1 测试日期2006.03.125.1.2 数据测试时间5 (分钟)并发线程数每次时间间隔(秒)平均响应时间(秒)成功次数失败次数成功率处理能力(次/分)web服务器CPU占用率(%)数据库服务器CPU占用率(%)平均最大平均最大1 0 7.469 40 0 100.00% 8.00 34.45 47.15 60.16 80.671 0 7.909 36 0 100.00% 7.20 32.62 48.96 54.41 71.333 0 17.333 50 0 100.00% 10.00 43.37 53.65 87.73 98.673 0 16.805 52 0 100.00% 10.40 42.93 58.85 89.72 984 0 22.096 52 0 100.00% 10.40 43 54.92 93.25 99.344 0 22.187 52 0 100.00% 10.40 43.49 56.25 93.81 99.675 0 27.007 52 0 100.00% 10.40 43.64 58.03 96.56 99.34cache影响系数最短平均响应时间(秒)7.469最高处理能力(次/分)10.4用户习惯操作频率(次/天)30预期平均响应时间(秒)10 13 15 20最大并发用户数50.74 81.45 94.22 113.945.1.3 说明不断增加并发线程数, 系统处理的成功次数并没有增加, 说明系统已经达到最大处理能力6. (虽然从cpu占用率上看, 系统的处理能力还能够达到更高的数值, 但由于测算出的处理能力已经远远超出2次/分钟的预期值, 所以, 不需要再继续测试更高的数值)7. 附件7.1excel格式的原始数据和计算结果。

Web应用性能测试实验报告

Web应用性能测试实验报告

Web应用性能测试实验报告一、概述本实验旨在对Web应用的性能进行评估和优化,以确保其在高负载情况下能够稳定运行并提供良好的用户体验。

通过对不同测试工具的使用和实验数据的收集分析,我们可以得出有效的性能测试结果和优化方案。

二、实验环境1. 测试对象:以XXX网站为例进行性能测试2. 测试工具:使用JMeter进行负载测试、使用GTMetrix进行页面加载速度测试3. 测试参数:模拟1000并发用户访问网站、分析页面加载速度、检测服务器响应时间等三、实验过程1. JMeter负载测试- 设置并发用户数为1000,模拟用户访问网站的行为- 分析各项性能指标,如响应时间、吞吐量等- 针对性能瓶颈进行优化,比如数据库查询效率、静态资源加载等2. GTMetrix页面加载速度测试- 输入网站URL,进行页面加载速度测试- 分析各项指标,包括页面大小、加载时间、优化建议等- 优化网站前端性能,如图片压缩、CSS、JavaScript文件合并等四、实验结果分析1. JMeter测试结果- 平均响应时间为2秒,吞吐量为1000 requests/second- 发现数据库查询效率低下导致性能下降,优化数据库索引可改善性能2. GTMetrix测试结果- 页面加载速度为5秒,优化建议包括压缩图片、减少HTTP请求等- 通过优化前端资源,加载速度得到明显提升,用户体验得到改善五、实验结论通过性能测试和优化实验,我们发现了网站在高负载情况下存在的性能瓶颈,并采取了相应的优化措施,显著提升了网站的性能表现和用户体验。

同时,定期进行性能测试和优化是保证Web应用高效运行的关键,有助于提升网站的竞争力和用户满意度。

六、未来展望在今后的工作中,我们将继续关注Web应用性能测试和优化,不断提升网站的性能表现和用户体验,以满足用户不断增长的需求和提升竞争力。

同时,我们也将探索更多的性能测试工具和优化技术,不断完善Web应用的性能优化体系,为用户提供更优质的服务。

前端开发中的性能测试和负载测试案例

前端开发中的性能测试和负载测试案例

前端开发中的性能测试和负载测试案例在前端开发中,性能测试和负载测试是非常重要的环节,它们可以帮助我们评估应用程序在不同条件下的性能表现,并针对潜在的瓶颈进行优化。

下面将通过一些案例来说明在前端开发中如何进行性能测试和负载测试。

案例一:页面加载性能测试假设我们正在开发一个电商网站,并希望评估主页的加载性能。

首先,我们可以使用浏览器开发者工具的网络面板来查看页面整体的加载时间、资源的加载顺序和时间等信息。

通过分析这些数据,我们可以识别出加载时间较长的资源,并对其进行优化,例如使用压缩或缓存等方式。

另外,我们还可以使用在线工具或自己编写脚本来模拟不同网络环境下的页面加载速度,以便更全面地评估页面在不同网络环境下的性能表现。

案例二:接口性能测试在一个在线论坛应用程序的开发中,我们需要评估接口的性能,以确保在高并发情况下仍然能够正常工作。

为了做到这一点,我们可以使用负载测试工具,如Apache JMeter或Locust等,来模拟多个用户同时访问接口,并观察响应时间和吞吐量等指标。

通过调整并发用户数和请求频率等参数,我们可以找到系统的瓶颈,并针对性地进行优化,例如增加服务器的处理能力或优化数据库查询等。

案例三:移动端性能测试在开发移动应用程序时,性能测试也是不可忽视的一环。

例如,我们可以使用Android Studio提供的Android Profiler工具来评估应用程序的内存使用情况和CPU 消耗等指标。

通过观察这些指标的变化,我们可以发现可能导致应用程序运行缓慢或卡顿的原因,并对其进行优化。

另外,我们还可以使用类似YSlow和PageSpeed 等工具来评估移动网页的性能,并根据评估结果进行优化,例如优化图片的大小和格式,减少HTTP请求等。

案例四:跨浏览器测试在前端开发中,我们需要确保我们的网站或应用程序在不同浏览器和操作系统上都可以正常运行。

为了做到这一点,我们可以使用一些在线的跨浏览器测试工具,如BrowserStack或Sauce Labs等,来模拟不同的浏览器环境,并观察页面的显示效果和性能表现。

web测试报告

web测试报告

web测试报告目录1. 概述1.1 背景介绍1.2 测试目的2. 测试范围2.1 软件环境2.2 硬件环境3. 测试内容3.1 功能测试3.2 兼容性测试3.3 性能测试4. 测试结果4.1 功能测试结果4.2 兼容性测试结果4.3 性能测试结果5. 问题与建议5.1 发现的问题5.2 解决方案建议1. 概述1.1 背景介绍在本次web测试报告中,我们对某网站进行了全面的测试,旨在保证网站在不同环境下能够正常运行,并且提出可能存在的问题与改进建议。

1.2 测试目的本次测试旨在发现网站在功能、兼容性和性能方面的问题,并提出相应的解决方案,确保网站的稳定性和用户体验。

2. 测试范围2.1 软件环境在测试过程中,我们使用了不同的操作系统和浏览器进行测试,包括Windows、Mac和Linux系统下的Chrome、Firefox和Safari浏览器。

2.2 硬件环境我们在不同配置的电脑和移动设备上进行了测试,确保网站在不同设备上的兼容性。

3. 测试内容3.1 功能测试功能测试包括对网站的各项功能进行验证,包括登录、注册、搜索、下单等功能的正常性和稳定性的检查。

3.2 兼容性测试兼容性测试主要针对不同浏览器和操作系统下的网站显示和功能进行检查,确保用户在不同环境下都能正常访问和使用网站。

3.3 性能测试性能测试主要检测网站的响应速度、负载能力和稳定性,确保网站能够在高负载情况下正常运行。

4. 测试结果4.1 功能测试结果经过功能测试,发现网站在登录过程中存在部分问题,需要进一步优化改进;其他功能均运行正常,用户体验良好。

4.2 兼容性测试结果在不同浏览器和操作系统下进行兼容性测试,网站显示和功能均正常,兼容性良好。

4.3 性能测试结果经过性能测试,网站响应速度较快,负载能力良好,性能稳定。

5. 问题与建议5.1 发现的问题1. 登录过程中存在页面加载缓慢的情况,需要优化登录接口。

2. 部分功能按钮在手机端显示不清晰,需要调整按钮大小。

Web应用性能测试实验报告

Web应用性能测试实验报告

Web应用性能测试实验报告一、引言本文主要针对Web应用的性能进行测试和分析,并且根据实验结果提出相应的改进策略,以优化Web应用的性能表现。

二、实验目的1. 了解Web应用的性能测试方法和指标体系;2. 通过性能测试,评估Web应用的负载能力、并发能力及响应能力;3. 根据测试结果提出相应的优化建议,改善Web应用的性能表现。

三、实验环境1. 硬件环境:使用一台具有较高配置的服务器,保证测试环境的稳定性;2. 软件环境:选择合适的Web性能测试工具,如JMeter、LoadRunner等;3. 测试应用:选取一款具备一定规模的Web应用作为测试对象。

四、实验步骤1. 准备测试用例:根据实际应用场景和用户行为,编写相应的测试用例,涵盖常见操作和高负载情况;2. 运行测试用例:使用性能测试工具,加载测试用例,并进行多场景、多用户并发测试;3. 监控性能指标:通过监控工具实时监测Web应用的性能指标,如响应时间、吞吐量、并发数等;4. 收集测试结果:记录测试过程中所获得的性能数据,并进行整理和分析;5. 分析测试结果:根据实验结果,分析系统性能的瓶颈所在,并找出性能不足的原因;6. 提出性能优化建议:根据分析结果,提出相应的性能优化策略和建议,以改善Web应用的性能表现。

五、实验结果与分析根据实验数据,我们得出以下结论和分析:1. 响应时间分析:通过对测试过程中的响应时间进行统计和分析,得出不同情况下的平均响应时间和最大响应时间的变化趋势,并与预期要求进行对比。

进一步分析发现,响应时间主要受以下因素影响:服务器负载、网络延迟、数据库性能等。

2. 吞吐量分析:吞吐量是指在特定时间内Web应用处理的请求数量。

通过统计测试过程中的吞吐量数据,可以评估Web应用的负载能力。

根据不同负载情况下的吞吐量变化趋势,我们可以得出Web应用在不同负载条件下的处理能力,并判断是否满足实际需求。

3. 并发数分析:并发数是指同时访问Web应用的用户数。

Web项目性能测试结果分析

Web项目性能测试结果分析

Web项⽬性能测试结果分析1、测试结果分析LoadRunner性能测试结果分析是个复杂的过程,通常可以从结果摘要、并发数、平均事务响应时间、每秒点击数、业务成功率、系统资源、⽹页细分图、Web服务器资源、数据库服务器资源等⼏个⽅⾯分析,如图1- 1所⽰。

性能测试结果分析的⼀个重要的原则是以性能测试的需求指标为导向。

我们回顾⼀下本次性能测试的⽬的,正如所列的指标,本次测试的要求是验证在30分钟内完成2000次⽤户登录系统,然后进⾏考勤业务,最后退出,在业务操作过程中页⾯的响应时间不超过3秒,并且服务器的CPU使⽤率、内存使⽤率分别不超过75%、70%,那么按照所⽰的流程,我们开始分析,看看本次测试是否达到了预期的性能指标,其中⼜有哪些性能隐患,该如何解决。

图1- 1性能测试结果分析流程图1.1、结果摘要LoadRunner进⾏场景测试结果收集后,⾸先显⽰的该结果的⼀个摘要信息,如图1- 2所⽰。

概要中列出了场景执⾏情况、“Statistics Summary(统计信息摘要)”、“Transaction Summary(事务摘要)”以及“HTTP Responses Summary(HTTP响应摘要)”等。

以简要的信息列出本次测试结果。

图1- 2性能测试结果摘要图场景执⾏情况该部分给出了本次测试场景的名称、结果存放路径及场景的持续时间,如图1- 3所⽰。

从该图我们知道,本次测试从15:58:40开始,到16:29:42结束,共历时31分2秒。

与我们场景执⾏计划中设计的时间基本吻合。

图1- 3场景执⾏情况描述图Statistics Summary(统计信息摘要)该部分给出了场景执⾏结束后并发数、总吞吐量、平均每秒吞吐量、总请求数、平均每秒请求数的统计值,如图1- 4所⽰。

从该图我们得知,本次测试运⾏的最⼤并发数为7,总吞吐量为842,037,409字节,平均每秒的吞吐量为451,979字节,总的请求数为211,974,平均每秒的请求为113.781,对于吞吐量,单位时间内吞吐量越⼤,说明服务器的处理能越好,⽽请求数仅表⽰客户端向服务器发出的请求数,与吞吐量⼀般是成正⽐关系。

web兼容性测试报告

web兼容性测试报告

Web兼容性测试报告1. 引言本文档旨在提供关于Web兼容性测试的报告,以及测试结果和建议。

我们对所测试的网站进行了系统性的测试,以确定其在不同浏览器和设备上的兼容性。

本文将提供一系列测试步骤和结果,并针对发现的问题提出解决方案。

2. 测试环境在进行兼容性测试之前,我们使用了以下环境和工具: - 操作系统:Windows 10 - 浏览器:Google Chrome, Mozilla Firefox, Microsoft Edge - 设备:桌面电脑,笔记本电脑,平板电脑,手机 - 开发工具:开发者工具,模拟器3. 测试步骤和结果下面是我们进行的测试步骤和相应的结果:3.1 页面加载速度测试我们测试了网站的加载速度,并记录了在不同网络环境下的结果。

测试结果表明,在高速网络环境下,网站加载速度较快,但在低速网络环境下,加载速度较慢。

建议优化网站的资源加载,以提高在低速网络环境下的用户体验。

3.2 布局和样式测试我们测试了网站在不同浏览器和设备上的布局和样式。

测试结果显示,在大多数浏览器中,网站的布局和样式一致。

然而,在某些较老的浏览器上,部分样式可能出现偏差。

建议使用CSS前缀和浏览器兼容性库来解决这些问题。

3.3 功能和交互测试我们对网站的功能和交互进行了测试,包括导航菜单、表单提交、动画效果等。

测试结果表明,网站的大部分功能在各个浏览器和设备上正常运行。

然而,在某些移动设备上,某些功能可能不够流畅。

建议进行性能优化和移动设备适配,以提高用户体验。

3.4 响应式设计测试我们测试了网站的响应式设计,以确保在不同设备上的显示效果良好。

测试结果显示,在大多数设备上,网站的响应式设计良好,页面内容根据不同屏幕大小进行了适配。

然而,在某些屏幕尺寸较小的设备上,部分内容可能显示不完整。

建议优化响应式设计,以适应更多的设备尺寸和分辨率。

4. 总结和建议综上所述,我们对网站进行了全面的兼容性测试,并发现了一些问题。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

5.4.2测试结果分析LoadRunner性能测试结果分析是个复杂的过程,通常可以从结果摘要、并发数、平均事务响应时间、每秒点击数、业务成功率、系统资源、网页细分图、Web服务器资源、数据库服务器资源等几个方面分析,如图5- 1所示。

性能测试结果分析的一个重要的原则是以性能测试的需求指标为导向。

我们回顾一下本次性能测试的目的,正如所列的指标,本次测试的要求是验证在30分钟内完成2000次用户登录系统,然后进行考勤业务,最后退出,在业务操作过程中页面的响应时间不超过3秒,并且服务器的CPU使用率、内存使用率分别不超过75%、70%,那么按照所示的流程,我们开始分析,看看本次测试是否达到了预期的性能指标,其中又有哪些性能隐患,该如何解决。

图5- 1性能测试结果分析流程图结果摘要LoadRunner进行场景测试结果收集后,首先显示的该结果的一个摘要信息,如图5- 2所示。

概要中列出了场景执行情况、“Statistics Summary(统计信息摘要)”、“Transaction Summary(事务摘要)”以及“HTTP Responses Summary(HTTP响应摘要)”等。

以简要的信息列出本次测试结果。

图5- 2性能测试结果摘要图场景执行情况该部分给出了本次测试场景的名称、结果存放路径及场景的持续时间,如图5- 3所示。

从该图我们知道,本次测试从15:58:40开始,到16:29:42结束,共历时31分2秒。

与我们场景执行计划中设计的时间基本吻合。

图5- 3场景执行情况描述图Statistics Summary(统计信息摘要)该部分给出了场景执行结束后并发数、总吞吐量、平均每秒吞吐量、总请求数、平均每秒请求数的统计值,如图5- 4所示。

从该图我们得知,本次测试运行的最大并发数为7,总吞吐量为842,037,409字节,平均每秒的吞吐量为451,979字节,总的请求数为211,974,平均每秒的请求为113.781,对于吞吐量,单位时间内吞吐量越大,说明服务器的处理能越好,而请求数仅表示客户端向服务器发出的请求数,与吞吐量一般是成正比关系。

图5- 4统计信息摘要图Transaction Summary(事务摘要)该部分给出了场景执行结束后相关Action的平均响应时间、通过率等情况,如图5- 5所示。

从该图我们得到每个Action的平均响应时间与业务成功率。

图5- 5事务摘要图HTTP Responses Summary(HTTP响应摘要)该部分显示在场景执行过程中,每次HTTP请求发出去的状态,是成功还是失败,都在这里体现,如图5- 6所示。

从图中可以看到,在本次测试过程中LoadRunner共模拟发出了211974次请求(与“统计信息摘要”中的“Total Hits”一致),其中“HTTP 200”的是209811次,而“HTTP 404”则有2163,说明在本次过程中,经过发出的请求大部分都能正确响应了,但还是有部分失败了,但未影响测试结果,“HTTP 200”表示请求被正确响应,而“HTTP 404”表示文件或者目录未能找到。

有朋友可能会问,这里出现了404的错误,为什么结果还都通过了。

出现这样问题的原因是脚本有些页面的请求内容并非关键点,比如可能请求先前的cookie信息,如果没有就重新获取,所以不会影响最终的测试结果。

图5- 6 HTTP响应摘要常用的HTTP状态代码如下:并发数分析“Running Vusers(运行的并发数)”显示了在场景执行过程中并发数的执行情况。

它们显示Vuser的状态、完成脚本的Vuser的数量以及集合统计信息,将这些图与事务图结合使用可以确定Vuser的数量对事务响应时间产生的影响。

图5- 7显示了在OA系统考勤业务性能测试过程中Vusers运行情况,从图中我们可以看到,Vusers的运行趋势与我们场景执行计划中的设置是一样,表明在场景执行过程中,Vusers是按照我们预期的设置运行的,没有Vuser出现运行错误,这样从另一个侧面说明我们的参数化设置是正确的,因为使用唯一数进行参数化设置,如果设置不正确,将会导致Vuser运行错误。

在脚本中我们加入了这样一段代码:上述代码的意思是说,如果登录失败了,就退出脚本的迭代,那么什么原因可能会导致登录失败呢?就是我们前面参数化的设置,一旦Vuser分配不到正确的登录账号,就可能导致登录失败,从而引起Vuser停止运行。

所以,从图5- 7的表现,可以认为参数化是没有问题的。

图5- 7运行的并发数图测试脚本中我们还使用了集合点,那么这里还可以看看集合点在场景执行过程中的表现,点击左边的“New Graph”,出现图5- 8,展开“Vusers”前的加号,双击“Rendezvous”,出现集合点的图形后,点击【Close】,关闭添加新图界面。

图5- 8添加集合点统计图集合点的图形如图5- 9所示,从图中可以看到,所有用户到达集合点后,立刻就释放了。

与之前设定的集合点策略设置“所有运行用户到达后释放“是一致的。

假设这样的一种情况,Running的Vusers有10个,集合点策略设置是“所有运行用户到达后释放”,而集合点图形显示的最大释放Vusers是7个,那么就表示有些Vuser超时了,引起超时的原因可能是Vuser得到的响应超时了,可以结合平均事务响应时间再详细分析原因。

图5- 9集合点状态图我们本次测试Running Vusers与集合点是一致,说明整个场景执行过程中,并发数用户的执行正确,OA系统测试服务器能够应付7个并发用户的业务操作。

响应时间在性能测试要求中我们知道,有一项指标是要求登录、考勤业务操作的页面响应时间不超过3秒,那么本次测试是否达到了这个要求呢?我们先来看“Average Transaction Response Time(平均事务响应时间图)”(图5- 10),这张图是平均事务响应时间与结果摘要中的“Transaction Summary”合成的。

图5- 10平均事务响应时间图从图形下部我们可以看到,登录部分对应的Action是“submit_login”,考勤业务提交对应的Action是“submit_sign”,他们的“Average Time(平均响应时间为)”分别是4.425秒与0.848秒,从这两个数值来看,考勤业务的事务响应时间0.848秒小于预期的3秒,达到了要求,而登录是4.425秒,大于预期的3秒,不符合要求。

这样的结果是不正确的,因为在统计的登录业务的时候,我们没有去除思考时间,所以,登录功能的实际事务时间应该是4.425秒-3秒=1.425秒,小于预期的3秒,故登录业务的事务响应时间也达到了我们的要求。

在平时的性能测试活动中,统计结果的时候需要去掉思考时间,加上思考时间是为了真实的模拟用户环境,统计结果中除去思考时间是为了更真实的反映服务器的处理能力,两者并不矛盾。

看完了“Average Time”,我们再看“90 Percent Time”,这个时间从某种程度来说,更准确衡量了测试过程中各个事务的真实情况,表示90%的事务,服务器的响应都维持在某个值附近,“Average Time”值对于平均事务响应时间变动趋势很大的情况统计就不准确了,比如有三个时间:1秒、5秒、12秒,则平均时间为6秒,而另外一种情况:5秒、6秒、7秒,平均时间也为6秒,显然第二种比第一种要稳定多了。

所以,我们在查看平均事务响应时间的时候,先看整体曲线走势,如果整体趋势比较平滑,没有忽上忽下的波动情况,取“Average Time”与“90 Percent Time”都可以,如果整体趋势毫无规律,波动非常大,我们就不用“Average Time”而使用“90 Percent Time”可能更真实些。

从图5- 10可以看出,所有Action平均事务响应时间的趋势都非常平滑,所以使用“Average Time”与“90 Percent Time”差别不是很大,用哪个都可以。

这里是使用最常用的统计方法“90 Percent Time”。

登录业务的“90 Percent Time”是5.298秒-3秒(思考时间)=2.298秒,考勤业务的“90 Percent Time”是1.469秒,没有思考时间,那么就是实打实的表5- 1测试结果对照表一每秒点击数“Hits per Second(每秒点击数)”反映了客户端每秒钟向服务器端提交的请求数量,如果客户端发出的请求数量越多,与之相对的“Average Throughput (bytes/second)”也应该越大,并且发出的请求越多会对平均事务响应时间造成影响,所以在测试过程中往往将这三者结合起来分析。

图5- 11显示的是“Hits per Second”与“Average Throughput (bytes/second)”的复合图,从图中可以看出,两种图形的曲线都正常并且基本一致,说明服务器能及时的接受客户端的请求,并能够返回结果。

如果“Hits per Second”正常,而“Average Throughput (bytes/second)”不正常,则表示服务器虽然能够接受服务器的请求,但返回结果较慢,可能是程序处理缓慢。

如果“Hits per Second”不正常,则说明客户端存在问题,那种问题一般是网络引起的,或者录制的脚本有问题,未能正确的模拟用户的行为。

具体问题具体分析,这里仅给出一些建议。

图5- 11每秒点击数与每秒吞吐量复合图对于本次测试来说,“Hits per Second”与“Average Throughput (bytes/second)”都是正常的,而且整体表现还是不错的。

一般情况下,这两种指标用于性能调优,比如给定了几个条件,去检测另外一个条件,用这两个指标衡量,往往起到很好的效果。

比如要比较某两种硬件平台的优劣,就可以使用相同的配置方法部署软件系统,然后使用相同的脚本、场景设计、统计方法去分析,最终得出一个较优的配置。

业务成功率“业务成功率”这个指标在很多系统中都提及到,比如电信的、金融的、企业资源管理的等等。

举个例子,我们楼下的建行,假如每天的业务类别是这样的:20个开户,5个销户,300个存款,500取款,100个汇款等,那么在做他们的营业系统测试时就需要考虑业务成功率了,一般不得低于98%。

具体的业务成功率是什么意思呢?排除那些复杂的业务,比如异步处理的业务(移动的套卡开通就是异步的),业务成功率就是事务成功率,用户一般把一个Aciton当做一笔业务,在LoadRunner场景执行中一笔交易称为一个事务。

所以,说业务成功率其实就是事务成功率、通过率的意思。

在“TransactionSummary”中我们可以很明确的看到每个事务的执行状态,如图5- 12所示。

相关文档
最新文档