Apusic MQ7.5性能测试报告

Apusic MQ7.5性能测试报告
Apusic MQ7.5性能测试报告

Apusic MQ7.5性能测试报告

金蝶中间件有限公司

2011年6月30日

目录 (2)

第1章概述 (3)

1.1测试环境 (3)

1.2测试参数 (4)

1.3测试结果计算方式 (5)

第2章APUSIC MQ7.5性能 (6)

2.1单服务器性能 (6)

2.1.1队列存储性能 (6)

2.1.2逻辑处理性能 (8)

2.2组网性能 (10)

2.2.1测试目的 (10)

2.2.2测试方案 (10)

2.2.3测试结果分析 (11)

第3章APUSICMQ7.0性能 (13)

3.1单服务器性能 (13)

3.1.1队列存储性能 (13)

3.1.2逻辑处理性能 (14)

3.2组网性能 (16)

3.2.1测试目的 (16)

3.2.2测试方案 (16)

3.2.3测试结果分析 (16)

第4章总结 (18)

第5章附录 (19)

5.1参数配置 (19)

5.1.1Apusic MQ7.5配置 (19)

5.1.2Apusic MQ7.0配置 (20)

Apusic MQ7.5是MQ团队在2010年下半年开发的版本,该版本在性能、稳定性以及JMS兼容性上有了明显的改善。本次主要是针对Apusic MQ7.5的性能进行测试,包括单个MQ服务器的性能,以及两个MQ服务器组成的网络的性能。此外,还对Apusic MQ7.0进行了对比测试。

由于缺乏MQ的第三方测试工具,本次测试采用自主开发的JMS客户端进行测试。

1.1 测试环境

本次测试共使用两台配置相同的服务器:192.168.6.174(服务器A)、192.168.6.187(服务器B),其详细配置如下:

单服务器测试时,只使用了服务器A,生产者、消费者、JDBC存储和MQ服务器都在服务器A上,示意图如下:

两台MQ组网测试的情况下,服务器A和服务器B上各运行一个MQ服务器,生产者和消费者也分别部署在两台服务器上,示意图如下:

1.2 测试参数

本次测试统一设置确认模式为自动确认,采用非事务会话。测试过程中对各种影响性能的参数进行了组合测试,这些参数及其影响如下:

1.3 测试结果计算方式

测试结果计算方式如下:从生产者开始生产第一条消息计时,到消费者消费最后一条停止,再用发送的消息条数(或发送的字节数)除以耗费的时间,得出其吞吐量,单位是条/秒(或M/秒)。

另外,在整个测试过程中对系统的CPU和内存进行了监控,并根据监控数据分析是否会影响测试结果。

2.1 单服务器性能

单服务器测试环境下,消息的存储效率和消息的逻辑处理效率是影响MQ服务器吞吐量的主要因素。

2.1.1 队列存储性能

2.1.1.1 测试目的

主要是用于测试各种存储类型在ApusicMQ中的存储性能。

2.1.1.2 测试方案

ApusicMQ7.5的存储有多种类型可供选择:BerkeleyDB、DBM、内存存储、JDBC存储,各种存储在性能上和可靠性上有较大的差别。存储类型的选择不仅会影响到持久消息,也会影响到非持久消息,因为ApusicMQ内部对非持久消息也会做持久化处理(但是和持久消息不同的是,MQ服务器重启后将抛弃这些被持久化的非持久消息)。

本次主要测试以下几种存储:

◆BerkerleyDB(高性能):采用BerkerleyDB作为存储,并打开异步读写和缓存机制(具体配置参

考附录),使其具有较高的性能(但同时可靠性也较低)。

◆BerkerleyDB(高可靠):采用BerkerleyDB作为存储,并关闭异步读写和缓存机制(也就是刷硬

盘,具体配置参考附录),使其具有很高的可靠性(但同时性能也较低)。

◆DBM:采用Apusic自主实现的DBM存储算法。

◆内存存储:消息全部存在内存里面(实际上就是没有持久),可靠性完全没有保障。

◆JDBC:可靠性和性能完全依赖于底层的数据库,本次测试以Oracle数据库为例,数据库不做

任何优化。

根据以上几种存储,制定本组测试的测试方案如下:

1)只使用一个队列进行测试。使用多个队列会提升MQ服务器的并发处理能力,由于本组测试只

是用来对比各种存储类型的效率,故选择一个队列来使并发性对测试结果的影响降到最低。

2)分别使用1个、2个、4个、8个、12个、16个、20个、24个、28个生产者同时对该队列发送

若干条消息,以保证生产者的消息生产速度。

3)由于消费消息的速度比生产消息的速度慢,消费者个数设置为生产者个数的两倍,以保证消费

者的消费速度。

4)分别发送大小为1K、100K、1M的消息,测试MQ服务器对不同大小消息的处理情况。

2.1.1.3 测试结果分析

根据以上数据,性能从高到底依次是:内存、berkeleyDB(高性能)、DBM、berkeleyDB(高可靠)、JDBC,其中内存存储在发送较大的消息时很容易导致服务器内存溢出,不能用于生产环境,仅用于测试;DBM存储不太稳定且有一定的缺陷,也不推荐在生产环境下使用。

BerkerleyDB(高性能)和BerkerleyDB(高可靠)代表了BerkerleyDB的两个极端配置,前者在性能上接近于内存存储,最高时近20000条/秒(消息大小为1K时),可用作非持久消息队列的存储;后者虽然在性能上降了几个数量级,最高时仅为570条/秒(消息大小为100K时),但每个消息过来都要刷一次硬盘,就算物理服务器断电(且没有独立的硬盘电源)也不会丢失消息,可靠性得到了保障,可用作对可靠性要求非常高的持久消息队列存储;有些应用场景可能只是希望在MQ服务器进程崩溃或操作系统崩溃都不会丢失消息,而不需要刷硬盘这么高的可靠性,此时可以根据需要对BerkerleyDB进行调整,使其可靠性介于上述两者之间,其性能通常也能达到10000条/秒左右(消息大小为1K时)。

JDBC的存储性能和可靠性完全依赖于底层的数据库产品,目前主流的数据库在可靠性方面都能有很好的保障,故一般将JDBC用作持久消息队列的存储。在性能方面,本次测试所用的Oracle数据库在存储小消息(1K)时略高于BerkeleyDB(高可靠),但在对大消息的处理上明显低于BerkeleyDB(高可靠)存储。

2.1.2 逻辑处理性能

2.1.2.1 测试目的

主要用于测试MQ服务器对消息的逻辑处理(比如多线程的并发处理)性能,影响该性能的主要因素有:生产者个数、消费者个数、队列个数。

2.1.2.2 测试方案

由于队列的存储类型和消息大小会对结果造成影响,为了使本组测试更加突出主题,将忽略存储类

型及消息大小这些干扰因素。测试方案制定如下:

1)只选择BerkerleyDB(高性能)进行测试;

2)只选择1K的消息大小进行测试;

3)测试单个队列多个生产者的情况,分别测试1个、2个、4个、8个、12个、16个、20个、24

个、28个生产者同发送若干条消息;

4)测试单个生产者多个队列的情况,即每个队列上只挂一个生产者,分别测试1、2、4、8、16

个队列的情况;

5)由于消费消息的速度比生产消息的速度慢,消费者个数设置为生产者个数的两倍。

2.1.2.3 测试结果分析

从以上结果可以看出,随着生产者个数的增加,服务器的吞吐量逐渐上升,这是因为生产者个数的增加会导致单位时间内发送给服务器的消息增加;但增到一定程度后吞吐量趋于平稳,甚至稍微呈现下降的趋势,这是因为当达到服务器的处理极限后,生产者个数的增加会加剧服务器对资源的争用。

根据以上数据得知,队列个数的增加会导致服务器的吞吐量上升,这是因为一个队列上挂了一个生产者,队列的增加导致了生产者个数的增加,从而单位时间内生产消息的速度提高了;但增长到一定程度后,吞吐量趋于平稳,说明已经达到了服务器处理能力的峰值(大约25000条/秒)。

2.2 组网性能

2.2.1 测试目的

本组测试主要用于测试ApusicMQ7.5在组网环境下对网络的利用率。

2.2.2 测试方案

虽然消息存储类型、MQ逻辑处理都会影响测试结果,但为了突出测试目的,将这些因素的影响维持在一个恒定值,本组测试制定的方案如下:

1)将存储类型固定为BerkerleyDB(高性能);

2)将队列数恒定为1个队列;

3)分别使用1K、100K、1M的消息测试MQ服务器对不同消息大小的处理性能;

4)分别使用1个、2个、4个、8个、12个、16个、20个、24个、28个生产者同时对该队列发送

若干条消息,以保证生产者的生产速度;

5)由于消费消息的速度比生产消息的速度慢,消费者个数设置为生产者个数的两倍,以保证消费

者的消费速度;

6)分别测试通道组网和路由组网的性能。

2.2.3 测试结果分析

从以上数据中可以看出,当消息较小的时候,传输通道比路由有更高的性能,最高吞吐量在14000条/秒左右,这是因为传输通道内部使用了滑动窗口机制,对消息进行批量发送和确认所致。当然,如果使用多个队列进行测试,传输通道的吞吐量可以达到20000条/秒上。

从以上两组数据中可以得出,当消息较大时,路由连接的吞吐量稍微高于传输通道。路由连接的最大传输速率最大约为60M/秒,传输通道的最大传输速率约为45M/秒。

3.1 单服务器性能

3.1.1 队列存储性能

3.1.1.1 测试目的

测试ApusicMQ7.0的存储性能,并和7.5进行对比。

3.1.1.2 测试方案

ApusicMQ7.0支持的存储类型有:DBM、JDBC、BerkerleyDB,其中DBM不推荐在生产环境下使用,在这里不再进行测试,JDBC存储和7.5一样,也不再进行测试。

本组案例主要是针对7.0的BerkerleyDB进行测试,7.0的berkeleyDB用户不能调整参数,服务器内部默认选择了一个可靠性和性能适中的参数配置。

本组测试案例和7.5的队列存储性能测试案例方案类似,采用单队列,然后队列上挂多个生产者和消费者,消费者个数为生产者个数的两倍,并分别测试消息大小1K、100K、1M的情况。

3.1.1.3 测试结果分析

从以上数据中可以看出,7.0的berkeleyDB存储性能介于7.5高可靠和高性能之间,最高吞吐量为10000条/秒(消息大小为1K时)。由于它的可靠性无法和7.5的高可靠配置相比,所以在7.0里面如果想要达到最高可靠的保证,只能用JDBC进行存储。

3.1.2 逻辑处理性能

3.1.2.1 测试目的

测试ApusicMQ7.0在多个生产者和多个队列的时候的性能表现。

3.1.2.2 测试方案

同“ApusicMQ7.5逻辑处理性能测试方案(2.1.2.2节)”,存储采用BerkeleyDB。

3.1.2.3 测试结果分析

单队列的情况下,随着生产者个数的增加吞吐量也在增长,当增长到10000条/秒的时候逐渐趋于稳定。

这种情况是每个队列上只挂一个生产者,随着队列的增加,生产者个数也相应增加,故单位时间内发送的消息数也不断增长,当增加到13000条/秒的时候达到峰值,并随着多个队列对资源的争用加剧有略微下降。相比ApusicMQ7.5的对应测试案例,其吞吐量差距较大(7.5该案例的吞吐量为25000条/秒)。

3.2 组网性能

3.2.1 测试目的

主要测试ApusicMQ7.0在组网环境下对网络的利用率。

3.2.2 测试方案

同“ApusicMQ7.5组网性能测试方案(2.2.2节)”,存储采用BerkeleyDB,只需要测试路由连接组网(7.0只有一种组网方式)。

3.2.3 测试结果分析

根据以上测试数据和7.5对应测试案例的数据,可以看出,7.5的路由组网性能比7.0有了较大的提升:当消息较小时(以1K为例),其吞吐量分别是3900条/秒和3000条/秒,当消息较大时(以100K 和1M为例),其网络利用率分别是60M/秒和33M/秒。

根据本次测试,总结如下:

1)ApusicMQ7.5里面可用于生产环境的存储有BerkeleyDB和JDBC,其他存储只能用于测试。其

中BerkeleyDB(高性能)配置可用作非持久消息队列的存储,JDBC和BerkeleyDB(高可靠)配置可用作持久消息队列存储。

2)单服务器环境下,非持久消息(即Berkeley高性能配置)的最大吞吐量能达到25000条/秒;持

久消息(JDBC或BerkeleyDB高可靠配置)在500条/秒左右。

3)组网环境下,非持久的消息的最大吞吐量能达到14000条/秒(单队列的情况下,多队列能达到

20000条/秒);持久消息由于受限于存储速度,吞吐量约为400条/秒左右。

4)7.5的性能较7.0有了较大的提升,其中单服务器性能提升了约一倍(25000条/秒VS 13000条

/秒),网络传输性能提升了4倍以上(14000条/秒VS 3000条/秒)。

注:以上数据都以1K的消息大小为例,因为在实际的使用场景中,更多的是一些小消息的传递。

5.1 参数配置

5.1.1 A pusic MQ7.5配置

1)在测试过程中,服务器A和服务器B上各运行一个MQ服务器(以下称为MQ-A和MQ-B),在MQ-A

建立40个本地队列和20个远程队列,MQ-B上建立20个本地队列,每个队列分别用不同的存储来进行测试:berkeley-store(即高性能配置),berkeley-store4Persistent(即高可靠配置),DBM,JDBC,Memory。

存储参数配置信息如下(mq_store.xml配置文件):

Berkeley-store

Berkeley-store

JDBC数据源的配置(datasources.xml):

jndi-name="jdbc/oracle"

driver-class="oracle.jdbc.driver.OracleDriver"

driver-classpath="lib/ojdbc5_g.jar"

url="jdbc:oracle:thin://@192.168.6.174:1521:orcl"

min-spare-connections="5"

max-spare-connections="30"

idle-timeout="3000"

>

服务器线程设置为1000(mq.conf):

NAME="apusic:service=ThreadPool,name=MQHandler">

其他均使用默认配置即可。

2)单服务器测试队列存储性能时,使用MQ-A的20个本地队列,分别更换不同的队列存储进行测试。

3)单服务器测试逻辑处理性能时,使用MQ-A的40个本地队列,使用berkeley-store存储。

4)组网测试路由服务时使用MQ-A的传输队列和MQ-B的20个本地队列,传输服务使用MQ-A的20

个远程队列和MQ-B的20个本地队列,使用berkeley-store存储。

5.1.2 A pusic MQ7.0配置

1)服务器A和服务器B上各运行一个MQ服务器(以下称为MQ-A和MQ-B),在MQ-A建立40个本

地队列和20个远程队列,MQ-B上建立20个本地队列,均使用berkerley-store。

Berkeley存储配置(mq.conf):

性能测试测试方案

性能测试详细测试方案 、八、- 前言 平台XX项目系统已经成功发布,依据项目的规划,未来势必会出现业务系统中信息大量增长的态势。 随着业务系统在生产状态下日趋稳定、成熟,系统的性能问题也逐步成为了我们关注的焦点:每天大数据量的“冲击”,系统能稳定在什么样的性能水平,面临行业公司业务增加时,系统能否经受住“考验”,这些问题需要通过一个完整的性能测试来给出答案。 1第一章XXX系统性能测试概述 1.1 被测系统定义 XXX系统作为本次测试的被测系统(注:以下所有针对被测系统地描述均为针对XXX系统进行的),XXX系统是由平台开发的一款物流应用软件,后台应用了Oraclellg数据库, 该系统包括主要功能有:XXX 等。在该系统中都存在多用户操作,大数据量操作以及日报、周报、年报的统计,在本次测试中,将针对这些多用户操作,大数据量的查询、统计功能进行如预期性能、用户并发、大数据量、疲劳强度和负载等方面的性能测试,检查并评估在模拟环境中,系统对负载的承受能力,在不同的用户连接情况下,系统的吞吐能力和响应能力,以及在预计的数据容量中,系统能够容忍的最大用户数。1.1.1 功能简介 主要功能上面已提到,由于本文档主要专注于性能在这里功能不再作为重点讲述。 1.1.2 性能测试指标 本次测试是针对XXX系统进行的全面性能测试,主要需要获得如下的测试指标。 1、应用系统的负载能力:即系统所能容忍的最大用户数量,也就是在正常的响应时间中,系统能够支持的最多的客户端的数量。

2、应用系统的吞吐量:即在一次事务中网络内完成的数据量的总和,吞吐量指标反映的是服务器承受的压力。事务是用户某一步或几步操作的集合。 3、应用系统的吞吐率:即应用系统在单位时间内完成的数据量,也就是在单位时间内,应用系统针对不同的负载压力,所能完成的数据量。 4、T PS每秒钟系统能够处理事务或交易的数量,它是衡量系统处理能力的重要指标。 5、点击率:每秒钟用户向服务器提交的HTTP青求数。 5、系统的响应能力:即在各种负载压力情况下,系统的响应时间,也就是从客户端请求发起,到服务器端应答返回所需要的时间,包括网络传输时间和服务器处理时间。 6、应用系统的可靠性:即在连续工作时间状态下,系统能够正常运行的时间,即在连续工作时间段内没有出错信息。 1.2系统结构及流程 XXX系统在实际生产中的体系结构跟本次性能测试所采用的体系结构是一样的,交易流 程也完全一致的。不过,由于硬件条件的限制,本次性能测试的硬件平台跟实际生产环境略有不同。 1.2.1系统总体结构 描述本系统的总体结构,包括:硬件组织体系结构、网络组织体系结构、软件组织体系结构和功能模块的组织体系结构。 1.2.2功能模块 本次性能测试中各类操作都是由若干功能模块组成的,每个功能都根据其执行特点分成 了若干操作步骤,每个步骤就是一个功能点(即功能模块),本次性能测试主要涉及的功能 模块以及所属操作如下表

性能测试分析报告案例

***系统性能测试报告 V1.0 撰稿人:******* 时间:2011-01-06

目录 1.测试系统名称及测试目标参考 (3) 2.测试环境 (3) 3.场景设计 (3) 3.1测试场景 (3) 3.1测试工具 (4) 4.测试结果 (4) 4.1登录 (4) 4.2发送公文 (6) 4.3收文登记 (8)

1.测试系统名称及测试目标参考 被测系统名称:*******系统 系统响应时间判断原则(2-5-10原则)如下: 1)系统业务响应时间小于2秒,用户对系统感觉很好; 2)系统业务响应时间在2-5秒之间,用户对系统感觉一般; 3)系统业务响应时间在5-10秒之间,用户对系统勉强接受; 4)系统业务响应时间超过10秒,用户无法接受系统的响应速度。 2.测试环境 网络环境:公司内部局域网,与服务器的连接速率为100M,与客户端的连接速率为10/100M 硬件配置: 3.场景设计 3.1测试场景 间

间 间 3.1测试工具 ●测试工具:HP LoadRunner9.0 ●网络协议:HTTP/HTTPS协议 4.测试结果 4.1登录 ●运行1小时后实际登录系统用户数,用户登录后不退出,一直属于在线状态,最 终登录的用户达到9984个;

●响应时间 ●系统资源

服务器的系统资源表现良好(CPU使用率为14%,有15%的物理内存值)。磁盘等其他指标都表现正常,在现有服务器的基础上可以满足9984个在线用户。 4.2发送公文 运行时间为50分钟,100秒后300个用户全部加载成功,300个用户开始同时进行发文,50分钟后,成功发文数量如下图所示,成功发文17792个,发文失败37 个;

项目性能测试报告

XXX项目or府门户网站性能测试报告

目录 第一章概述 (4) 第二章测试活动 (4) 2.1测试用具 (4) 2.2测试范围 (4) 2.3测试目标 (5) 2.4测试方法 (5) 2.4.1基准测试 (5) 2.4.2并发测试 (6) 2.4.3稳定性测试 (6) 2.5性能指标 (6) 2.6性能测试流程 (6) 2.7测试术语 (7) 第三章性能测试环境 (8) 3.1服务器环境 (8) 3.2客户端环境 (9) 3.3网络结构 (9) 第四章测试方案 (10) 4.1基准测试 (11) 4.2并发测试 (13) 4.3稳定性测试 (15) 第五章测试结果描述和分析 (16) 6.1基准测试性能分析 (16) 6.2并发测试性能分析 (21) 6.3稳定性性能测试分析 (28) 第六章测试结论 (29)

摘要 本文档主要描述XXXX网站检索和页面浏览性能测试中的测试内容、测试方法、测试策略等。 修改历史 注释:评审号为评审记录表的编号。更改请求号为文档更改控制工具自动生成的编号。

第一章概述 由于当前对系统要接受业务量的冲击,面临的系统稳定、成熟性方面的压力。系统的性能问题必将成为焦点问题,海量数据量的“冲击”,系统能稳定在什么样的性能水平,面临业务增加时,系统抗压如何等这些问题需要通过一个较为真实的性能模拟测试来给出答案,通过测试和分析为系统性能的提升提供一些重要参考数据,以供后期系统在软硬件方面的改善和完善。 本《性能测试报告》即是基于上述考虑,参考当前的一些性能测试方法而编写的,用以指导即将进行的该系统性能测试。 第二章测试活动 2.1测试用具 本次性能测试主要采用HP公司的Loadrunner11作为性能测试工具。Load runner主要提供了3个性能测试组件:Virtual User Generator, Controller,Analysis。 ●使用Virtual User Generator修改和优化脚本。 ●使用Controller进行管理,控制并发的模拟并发数,记录测试结果。 ●使用Analysis进行统计和分析结果。 2.2测试范围 此次性能测试实施是对吴忠市门户网站系统性能进行测试评估的过程,我们将依据系统将来的实际运行现状,结合系统的设计目标和业务特点,遵循着发生频率高、对系统或数据库性能影响大、关键和核心业务等原则选取需要进行测试的业务,模拟最终用户的操作行为,构建一个与生产环境相近的压力场景,对系统实施压力测试,以此评判系统的实际性能表现。 根据与相关设计,开发人员的沟通和交流,本次测试主要就是针对大量用户在使用吴忠市门户网站进行信息查询,而选取的典型事务就是用户使用检索进行关键字搜索以及界面浏览和反馈回搜索结果,这是用户使用最频繁,反应最多的地方,也是本系统当前以及以后业务的一个重要压力点所在。所以本次测试只选取检索业务的性能情况和界面浏览进行记录和

软件开发系统性能测试报告

订单系统二期_Order接口 性能测试报告

目录 1.术语 (3) 2.测试环境 (3) 2.1服务器&客户端环境信息 (3) 3.测试场景 (4) 4.测试目的&策略 (5) 5.结果分析 (5) 5.1基本数据统计分析&对比 (5) 5.1.1.测试场景PT1 (5) 5.1.2.测试场景PT2 (5) 5.1.3.测试场景PT3 (6) 5.2.详细数据分析 (6) 5.2.1.测试场景PT1(getOrderList Interface) (6) 5.2.2.测试场景PT2(getOrderRow Interface) (9) 5.2.3.测试场景PT3(getOrderGoodsList) (14) 6.测试结论 (17)

1.术语 2.测试环境 2.1服务器&客户端环境信息 服务端配置: 10.19.141.57 应用服务器: CPU: Intel(R) Xeon(R) CPUE5620 @ 2.40GHz 8个逻辑CPU 内存:15GB 网卡: 1000M 操作系统: CentOS release 5.8 (Final) 辅助软件: nmon 10.19.141.58 数据库服务器: CPU: Intel(R) Xeon(R) CPUE5620 @ 2.40GHz 8个逻辑CPU 内存:8GB 网卡: 1000M 操作系统: CentOS release 5.8 (Final) 辅助软件: nmon 客户端配置:(2台) CPU:4核8线程Intel(R) Xeon(R) CPU E5620 @ 2.40GHz 内存:8.00GB 网卡: 1000M 操作系统: Windows2008 浏览器/版本号: IE9.0 测试工具: LoadRunner11.0、nmon

软件性能测试结果分析总结

软件性能测试结果分析总结 平均响应时间:在互联网上对于用户响应时间,有一个普遍的标准。2/5/10秒原则。 也就是说,在2秒之内给客户响应被用户认为是“非常有吸引力”的用户体验。在5秒之内响应客户被认为“比较不错”的用户体验,在10秒内给用户响应被认为“糟糕”的用户体验。如果超过10秒还没有得到响应,那么大多用户会认为这次请求是失败的。 定义:指的是客户发出请求到得到响应的整个过程的时间。在某些工具中,请求响应时间通常会被称为“TTLB”(Time to laster byte) ,意思是从发起一个请求开始,到客户端收到最后一个字节的响应所耗费的时间。 错误状态情况分析:常用的HTTP状态代码如下: 400 无法解析此请求。 401.1 未经授权:访问由于凭据无效被拒绝。 401.2 未经授权: 访问由于服务器配置倾向使用替代身份验证方法而被拒绝。 401.3 未经授权:访问由于ACL 对所请求资源的设置被拒绝。 401.4 未经授权:Web 服务器上安装的筛选器授权失败。 401.5 未经授权:ISAPI/CGI 应用程序授权失败。 401.7 未经授权:由于Web 服务器上的URL 授权策略而拒绝访问。 403 禁止访问:访问被拒绝。 403.1 禁止访问:执行访问被拒绝。 403.2 禁止访问:读取访问被拒绝。 403.3 禁止访问:写入访问被拒绝。 403.4 禁止访问:需要使用SSL 查看该资源。 403.5 禁止访问:需要使用SSL 128 查看该资源。 403.6 禁止访问:客户端的IP 地址被拒绝。

403.7 禁止访问:需要SSL 客户端证书。 403.8 禁止访问:客户端的DNS 名称被拒绝。 403.9 禁止访问:太多客户端试图连接到Web 服务器。 403.10 禁止访问:Web 服务器配置为拒绝执行访问。 403.11 禁止访问:密码已更改。 403.12 禁止访问:服务器证书映射器拒绝了客户端证书访问。 403.13 禁止访问:客户端证书已在Web 服务器上吊销。 403.14 禁止访问:在Web 服务器上已拒绝目录列表。 403.15 禁止访问:Web 服务器已超过客户端访问许可证限制。 403.16 禁止访问:客户端证书格式错误或未被Web 服务器信任。 403.17 禁止访问:客户端证书已经到期或者尚未生效。 403.18 禁止访问:无法在当前应用程序池中执行请求的URL。 403.19 禁止访问:无法在该应用程序池中为客户端执行CGI。 403.20 禁止访问:Passport 登录失败。 404 找不到文件或目录。 404.1 文件或目录未找到:网站无法在所请求的端口访问。 需要注意的是404.1错误只会出现在具有多个IP地址的计算机上。如果在特定IP地址/端口组合上收到客户端请求,而且没有将IP地址配置为在该特定的端口上侦听,则IIS返回404.1 HTTP错误。例如,如果一台计算机有两个IP地址,而只将其中一个IP地址配置为在端口80上侦听,则另一个IP地址从端口80收到的任何请求都将导致IIS返回404.1错误。只应在此服务级别设置该错误,因为只有当服务器上使用多个IP地址时才会将它返回给客户端。404.2 文件或目录无法找到:锁定策略禁止该请求。 404.3 文件或目录无法找到:MIME 映射策略禁止该请求。

软件功能测试报告

软件功能测试报告1.概述 软件名称: 软件版本: (同时注明软件软本和测试包的cvs版本) 开发经理:申请单号: 测试人员: 测试日期: 测试内容: 备注: 2.测试环境 用途硬件环境软件环境 表2 测试环境 3.问题统计 (说明:该报告为阶段性测试的统计报告,该报表统计的bug数量为:本发布阶段内第一份申请单提交日期为起,直至填写报告这天为止的BUG数量,如果以前版本中有问题延期至本发布阶段来修正,那么该缺陷也需要统计进来;如果是功能测试报告则只统计当轮的即可,如果是功能+验证则需要统计本发布阶段的) 3.1按BUG状态统计(表格后面可以附上柱形图,以示更直观) BUG状态BUG数量备注 未分配(new) 不是缺陷(Not Bug)

未修改(open) 已修改(fixed) 不予修改(Won’t Fix)延期(Deffered) 被拒绝(Declined)无法重现信息不足重复的 已关闭(Closed) 重开启(Reopen) 合计 表3 按bug状态统计 3.2按BUG类型统计(表格后面可以附上柱形图,以示更直观) BUG 类型 BUG数量 备注未 分 配 未 修 改 不 是 缺 陷 已 修 改 不 予 修 改 延 期 被拒绝 已 关 闭 重 新 开 启 合 计 无 法 重 现 信 息 不 足 重 复 的 功能 界面 交互 3.3按BUG严重级别统计(表格后面可以附上柱形图,以示更直观) BUG 严 BUG数量 备注未未不已不延被拒绝已重合

重级别分 配 修 改 是 缺 陷 修 改 予 修 改 期无 法 重 现 信 息 不 足 重 复 的 关 闭 新 开 启 计 紧 急 严 重 中 等 轻 微 建 议 表5 按bug严重级别统计 3.4按功能模块统计(表格后面可以附上柱形图,以示更直观) 模块名称 BUG数量 备注未 分 配 未 修 改 不 是 缺 陷 已 修 改 不 予 修 改 延 期 被拒绝 已 关 闭 重 新 开 启 合 计 无 法 重 现 信 息 不 足 重 复 的 模块1 模块2 … …

网络优化测试报告

网络优化测试报告文档编制序号:[KKIDT-LLE0828-LLETD298-POI08]

测 试 业 务 区 路测数据分析报告 () 目录 第一章网络概况.............................................................................................................................. 网络基本情况 ............................................................................................................................... 站点分布图 ................................................................................................................................... 测试方法介绍 ............................................................................................................................... 第二章测试结果及分析.................................................................................................................. RX P OWER ..................................................................................................................................... S TRONGEST E C/I O.......................................................................................................................... A GGREGATE E C/I O ......................................................................................................................... T X P OWER....................................................................................................................................... F-FCH FER .................................................................................................................................... TX A DJ........................................................................................................................................... 第三章网络性能统计.................................................................................................................... C ALL S ETUP R ATE.......................................................................................................................... C ALL D ROP R AT E ........................................................................................................................... H ANDOFF S TATISTICS R ESULT........................................................................................................ A IR I NTERFACE S ETUP D ELAY........................................................................................................ 第四章测试结论..............................................................................................................................

性能测试报告范例

测试目的: 考虑到各地区的用户数量和单据量的增加会给服务器造成的压力不可估计,为确保TMS系统顺利在各地区推广上线,决定对TMS系统进行性能测试,重点为监控服务器在并发操作是的资源使用情况和请求响应时间。 测试内容 测试工具 主要测试工具为:LoadRunner11 辅助软件:截图工具、Word

测试结果及分析 5个用户同时生成派车单的测试结果如下: Transaction Summary(事务摘要) 从上面的结果我们可以看到该脚本运行47秒,当5个用户同时点击生成派车单时,系统的响应时间为41.45秒,因为没有设置持续运行时间,所以这里我们取的响应时间为90percent –time,且运行的事物已经全部通过

事务概论图,该图表示本次场景共5个事务(每个用户点击一次生成派车单为1个事务),且5个事务均已pass,绿色表色pass,如出现红色则表示产生error

从上图可以看到服务器的CPU平均值为14.419% ,离最大参考值90%相差甚远;且趋势基本成一直线状,表示服务器响应较为稳定,5个用户操作5个900托运单的单据对服务器并没有产生过大的压力。

“Hits per Second(每秒点击数)”反映了客户端每秒钟向服务器端提交的请求数量,这里服务器每秒响应9,771次请求;如果客户端发出的请求数量越多,与之相对的“Average Throughput (吞吐量)”也应该越大。图中可以看出,两种图形的曲线都正常并且几乎重合,说明服务器能及时的接受客户端的请求,并能够返回结果。 按照上述策略,我们得出的最终测试结果为: 生成派车单: 1个用户,300个托运单点击生成派车单,响应时间7.34秒 5个用户,900个托运单点击生成派车单,响应时间41.45秒 单据匹配: 单用户1000箱,20000个商品,上传匹配时间8秒 五个用户2500箱,40000个商品,同时上传匹配耗时2分25秒 自由派车: 单条线路917个托运单下载,响应时间1分40秒 上述结果是在公司内网,测试环境上进行的测试,可能与实际会有偏差

软件系统性能测试总结报告

性能测试总结报告

目录 1基本信息 (4) 1.1背景 (4) 1.2参考资料 (4) 1.3名词解释 (4) 1.4测试目标 (4) 2测试工具及环境 (4) 2.1测试环境架构 (4) 2.2系统配置 (4) 2.3测试工具 (4) 3测试相关定义 (4) 4测试记录和分析 (5) 4.1测试设计 (5) 4.2测试执行日志 (5) 4.3测试结果汇总 (5) 4.4测试结果分析 (6) 5交付物 (6) 6.测试结论和建议 (7) 6.1测试结论 (7) 6.2建议 (7) 7批准 (7)

使用说明 在正式使用时,本节及蓝色字体部分请全部删除。本节与蓝色字体部分为说明文字,用以表明该部分的内容或者注意事项。 1基本信息 1.1背景 <简要描述项目背景> 1.2参考资料 <比如:测试计划、测试流程、测试用例执行记录、SOW、合同等> 1.3名词解释 1.4测试目标 <说明测试目标,例如在线用户数、并发用户数、主要业务相应时间等> 2测试工具及环境 2.1测试环境架构 2.2系统配置 硬件配置 软件配置 2.3测试工具 3测试相关定义 <以下为示例,请根据项目实际情况填写完整>

4测试记录和分析 4.1测试设计 <说明测试的方案和方法> 4.2测试执行日志 <以下为示例,项目组按实际情况修改或填写> 4.3测试结果汇总 <以下为示例,项目组按实际情况修改或填写>

4.4测试结果分析 <分析各服务器在测试过程中的资源消耗情况> 1.数据库服务器 2.应用服务器 3.客户端性能分析 4.网络传输性能分析 5.综合分析 5交付物 <指明本测试完成后交付的测试文档、测试代码及测试工具等测试工作产品,以及指明配置管理位置和物理媒介等,一般包括但不限于如下工作产品: 1.测试计划 2.测试策略 3.测试方案 4.测试用例 5.测试报告

性能测试报告范例 - X项目AB系统性能测试报告

X项目AB系统性能测试报告 项目编号:XXXXXX-ACP101项目名称:X项目 编写:XXX编写日期: 审核:XX审核日期: 批准:批准日期:

1.前言 1.1.测试目标 本次性能测试的目的:通过测试获取与主机、后台流程平台交互过程中终端服务器处理性能及资源消耗情况。评估目前处理性能是否满足业务需求。 2.测试方法 压力测试采用自动化测试来实现,使用业界主流的压力测试工具LoadRunner8.1及其方法论完成对被测系统进行测试和结果分析。 压力测试工具LoadRunner通过使用虚拟用户模拟真实用户的操作,发起交易,完成对被测系统的加压,监控并记录被测系统的交易响应能力,各服务器的资源使用情况,获取交易响应时间、吞吐率等各项性能指标,并根据测试结果分析系统的性能瓶颈,评估系统的整体性能。 压力测试的测试方法主要包括:在被测系统中录制压力测试中使用的交易脚本,形成可以多次重复并发运行的测试脚本,由LoadRunner的控制台调度这些脚本,并发地执行交易,从而模拟真实生产系统的压力,形成对被测系统的加压,并监控和记录被测系统在这样的压力状况下表现出来的各项特征,例如:交易响应时间变化趋势、吞吐率变化趋势和系统资源(CPU)利用率的变化趋势等,获取被测系统在大压力情况下的各项性能指标。 2.1.测试准备 (1)开发测试交易,交易首先进行圈存,然后发任务给流程平台 (2)使用grinder交易执行过程作为测试交易的脚本 (3)使用下列测试数据(帐号)进行维护。测试时随机获取不同行所的账号进行测试。 压力测试账号

(4)准备一台台式机作为调试测试脚本、发起测试的客户端。配置:CPU intel core 2duo cpu(2.93GHz);2GB Memory;os windows xp sp3.IP为10.2.45.92(5)安装被测试交易到被测试的ABS终端服务器上。 2.2.被测试系统的系统配置 系统名称Ip地址os CPU Memory (GB) Network(M)应用程序参数 ABS10.2.39.13AIX5.3 64bit POWER5 2.3*2 41000Java:1.4.2(64 bit)SR9 mem:ms256; mx1536 Log:error Gateway10.2.39.14AIX5.3 64bit POWER5 2.3*2 41000Java:1.4.2(64 bit)SR9 mem:ms256; mx1280 Log:error 2.3.资源监控 本次压力测试监控的资源是操作系统AIX资源。 利用NMON软件对服务器系统的CPU%进行监控、并把这些数据作为为测试结果的一部分进行收集,便于进行事后分析。

软件性能测试报告

OfficialTestReport 正式的测试报告 测试项目:软件性能测试 ProjectInformation 项目信息: SampleInformation 样品信息: TestOperationInformation 测试信息: Conclusion 结论: Pass 通过 Fail 不通过 Other 其它: Performedby 测试: 樊佳伦 Signatur e Date: 2015-12-22 Writtenby 撰写: 邓文 ?签名: ?日期: 2015-12-23 Checkedby 核查: 董安庆 2015-12-24 Approvedby 批准: 穆剑权 2015-12-25 RevisionHistory 修订履历

Contents目录 SoftwarePerformanceTestReport Purpose目的 验证该BMS的软件性能指标是否在产品规范内。 References参考文件 Specification产品规格书:

Standard执行标准:GS95024-1,ISO26262 Glossary术语 SampleInformation样品信息 GeneralInformation基本信息 Hardware&SoftwareInformation软硬件信息软件版本:V1.2 硬件版本:V1.2 Equipment&DeviceInformation设备信息 Approach测试方法和步骤

Pass/FailCriteria通过标准 如章节6 Results分析与结果 共18项测试,其中6项未做,分别是:报文稳定性,死机复位,模拟故障,接收的Buf滤波(Bootloader),接收的Buf滤波(正常工作),信号传输时序要求;其中一项不通过测试,是ECU时序; 其余12项测试的试验数据和结果分析如下:

系统调优性能测试报告

XXXXX项目 压力测试报告 2015-10-16 XXXXXX技术有限公司文档信息

批复信息 版本记录

1简介 1.1 文档目的 本测试报告为性能对比测试报告,目的在于总结测试的工作进展情况并分析测试结果,描述本阶段测试是否达到调优预期目标,符合需要要求。 1.2 面向人员 本文档主要面向XX系统用户、测试人员、开发人员、项目管理人员和需要阅读本报告的相关领导。 1.3 参考文档 1.4 术语 1. 每秒事务数(TPS):是指每秒钟完成的事务数,事务是事先在脚本中定义的统计单元; 2. 事务平均响应时间(ART):响应时间一般反映了在并发情况下,客户端从提交请求到接受到应答所经历的时间; 3. 资源利用率:是指在不影响系统正常运行的情况下各服务器的CPU、内存等硬件资源的占用情况; 4. 最大并发用户数:系统所能承受的最大并发用户数;

5. 思考时间(Thinktime):用于模拟实际用户在不同操作之间等待的时间。例如,当用户收到来自服务器的数据时,可能要等待几秒钟查看数据,然后做出响应,这种延时就称为“思考时间”。 2第一轮测试目标 根据项目情况,本次测试的目的主要是解决XX系统个人系统登录和理财交易的处理能力达到客户正常使用要求,根据测试结果评估系统性能,为生产运行提供参考。 1)分析目前系统登录与理财的处理能力; 2)提高登录和理财交易处理能力,达到客户流畅使用的目的; 3第二轮测试安排 1、对整体系统运行环境、系统自身交易功能进行全面分析。通过 压力测试手段优化系统,提高运行效率,并给出未来三到五年 资源配置计划,制定后续保障机制。 2、计划从十月十九日开始方案讨论。

性能测试计划模板(实例)

XXXX系统 性能测试方案 软件产品名称:XXXX 软件开发部门:XXXX 软件测试部门:XXXX 编写:XXX 日期:2008 年11 月8 日审核:XXX 日期:2008 年11 月10 日批准:日期:年月日

1.引言 1.1测试方案概述 方案名称:xxxx系统性能测试方案 测试部门:xxxxxxxx科技发展有限公司 1.2目的 本测试方案将对国美电器供应链系统的测试方法、测试工具、测试范围、测试的软件硬件环境、测试进度、测试人员的分工和职责以及测试流程进行详细的定义和整体的描述。 1.3系统概述 产品名称: xx供应链系统JL SCM 开发部门: xxxx有限公司 在企业的信息化建设中,北京国美电器有限公司将在全国范围内实施“金力供应链系统JL SCM”,该系统中采用了 Sybase 最新版本的企业智能型关系数据库产品Adaptive Server Enterprise 12.5 (ASE12.5)及复制服务器产品Sybase Replication Server,由武汉金力软件有限公司开发并协助实施。国美电器实施的“金力供应链系统JL SCM”,从现代企业理念、物流体系和全方位服务的角度,完全解决了企业的决策、计划、管理、核算、经营、物流、服务、人事及电子商务等问题。 2.术语和定义 性能测试:在一定约束条件下(指定的软件、硬件和网络环境等)确定系统

所能承受的最大负载压力的测试过程。 场景:一种文件,用于根据性能要求定义在每一个测试会话运行期间发生的事件。 虚拟用户:在场景中, LoadRunner 用虚拟用户代替实际用户。模拟实际用户的操作来使用应用程序。一个场景可以包含几十、几百甚至几千个虚拟用户。 虚拟用户脚本:用于描述虚拟用户在场景中执行的操作。 事务:表示要度量的最终用户业务流程。 3.测试流程 负载测试通常由五个阶段组成:计划、脚本创建、场景定义、场景执行和结果分析。 计划负载测试:定义性能测试要求,例如并发用户的数量、典型业务流程和所需响应时间。 创建虚拟用户脚本:将最终用户活动捕获到自动脚本中。 定义场景:使用 LoadRunner Controller 设置负载测试环境。 运行场景:通过 LoadRunner Controller 驱动、管理和监控负载测试。 分析结果:使用 LoadRunner Analysis 创建图和报告并评估性能。 4.测试目标与策略 4.1测试目标 1)确定系统能承载的最大容量; 2)定位系统性能瓶颈; 3)确定系统典型事务响应时间; 4)出具可信的独立的第三方的性能测试报告。

性能测试报告模板

[专业公司名] [系统名称] 性能测试报告 版本号: 2014年06月10日共享服务中心

1引言 1.1编写目的 编写该测试总结报告主要有以下几个目的 1.通过对测试结果的分析,得到对系统质量的评价; 2.系统存在的缺陷,为修复和预防bug提供建议; 3.分析测试过程中的不足,为将来的改进提供参考; 说明:列举该报告的作用及其编写目的 1.2阅读对象 主要读者:太平养老及共享中心的领导、团险核心系统的用户、系统需求人员、系统开发人员、测试人员 其他读者:其他愿意了解团险核心系统的其他人员 说明:列举该报告主要的阅读对象,和其他潜在可能的阅读对象 1.3参考资料 XXX项目性能测试方案 XXX项目性能测试需求确认表 XXX项目结果分析表 ………….. 2系统评价 对系统做整体性能测试情况做总结,并对系统整体性能做评估和评价。

3测试环境 3.1网络拓扑结构图 可添加生产环境网络拓扑结构图与性能测试环境网络拓扑结构图,并对比,如一致要说明环境一致;如不一致,要说明差异性。与接口系统的对接情况做说明,如对接XXX接口的测试环境或者开发挡板等。 3.2软硬件配置 性能测试硬件基础环境表 性能测试软件环境配置表

性能测试环境参数配置表 说明环境参数配置表可以以此表格的形式展现,也可以内嵌配置文件。4测试进度

添加进度偏差说明分析 5测试数据 增量:可以是交易功能insert新增的数据量,也可以是查询类功能的查询结果的数据量。 6测试情况 6.1基准测试 6.1.1测试过程 描述测试过程中遇到的问题,解决的方法等。如没有,本小节可删减。 6.1.2测试结果 第一轮:未达指标的数据可以标红突出

性能测试案例分析

1.简要场景描述: 被测项目的数据库服务采用ORACLE 10g,测试功能点选择的是一个新建录入保存业务。当并发20用户时,数据库资源占用正常,处理业务响应时间正常,当并发40用户时,数据库服务器CPU占用率突增到100%,系统几乎不响应。 2.对ORACLE 10g进行监控: 2.1首先打开监控开关: exec dbms_monitor.serv_mod_act_trace_enable (service_name=>''); 在oracle安装目录\product\10.2.0\admin\gsp\udump目录下每个session形成.trc文件。 2.2通过tkprof进行分析: 根据日期选择相应的.trc文件,在命令行下通过tkprof进行分析: tkprof servname_ora_2336.trc utput=servname_ora_2336.txt SORT=(EXEELA, PRSELA, FCHELA) 形成结果文件servname_ora_2336.txt。 2.3查看分析结果文件: 发现存在大量的建临时表语句,耗用了大量的CPU资源,而且花费的时间很长。 create table myHelp4879f036d (Rowp int PRIMARY KEY,OID varchar(1000),Code varchar(1000),Name varchar(1026),ZJM varchar(100),Path varchar(40)) call count cpu elapsed disk query current rows ------- ------ -------- ---------- ---------- ---------- ---------- ---------- Parse 0 0.00 0.00 0 0 0 0 Execute 1 19.06 196.34 24 751455 1552 0 Fetch 0 0.00 0.00 0 0 0 0 ------- ------ -------- ---------- ---------- ---------- ---------- ---------- total 1 19.06 196.34 24 751455 1552 0

范例(web系统性能测试报告)

***********系统性能测试报告 南海东软信息技术职业学院YYYY年MM月DD日

文档说明 本文档所涉及到的文字和图表,仅限开发方和需求方内部使用,未经开发方的书面许可,请勿扩散到任何第三方。

目录 1. 总述 (1) 1.1 测试对象 (1) 1.2 测试目的 (1) 1.3 测试环境 (1) 1.4 测试依据 (2) 1.1参考资料 (2) 1.2术语及缩写词 (2) 1.3计算公式 (2) 2. 测试方法 (3) 2.1 测试模型 (3) 2.2 测试过程简述 (3) 2.3 需记录的数据 (3) 3. 测试用例 (4) 测试编号:1 (4) 4. 测试结果 (5) 4.1 查看记录内容 .................................................. 错误!未定义书签。 5. 测试结果分析 (6) 6. 附件 (7) 6.1 原始数据和计算结果 (7)

《性能测试技术与实践》南海东软信息技术职业学院1. 总述 1.1 测试对象 web系统 1.2 测试目的 目的是在尽可能在模拟生产环境的前提下,实现以下目标: 测试交易线处理程序在生产环境的业务和用户量下,性能能否满足业务人员操作的需求; 模拟系统在生产能力峰值时的性能状况; 通过较长时间的测试执行可导致程序发生由于内存泄露引起的失败,揭示程序中的隐含的问题或冲突,从而修复体系中的薄弱环节。 发现性能瓶颈,为后期性能调优提供参考依据。 验证稳定性与可靠性:在一个生产负荷下执行测试一定的时间来评估系统稳定性和可靠性是否满足要求。 1.3 测试环境

软件性能测试报告

软件性能测试报告2014年12 月

目录 1.测试目的 (1) 2.测试时间及地点 (1) 3.测试要点及测试方法 (1) 4.测试环境及测试工具 (1) 5. 功能测试 (2) 6.性能测试 (3) 6.1可操作性测试结果 (3) 6.2 安全性测试结果 (3) 6.3 兼容性测试结果 (3) 6.4 稳定性测试 (3) 6.5 压力测试 (4) 7.测试小结 (4)

1.测试目的 本测试报告为Sphinx全文检索,可以结合MySQL,PostgreSQL做全文搜索,它可以提供比数据库本身更专业的搜索功能,使得应用程序更容易实现专业化的全文检索,进行大日志数据查询。 2.测试时间及地点 测试时间:2014年12月 测试地点:办公区 3.测试要点及测试方法 (1)测试要点 ?软件的基本配置; ?软件实现的功能; ?软件检索的方式; (2)测试方法 黑盒测试,手工测试 4.测试环境及测试工具 (1)测试环境 ?网网络环境:局域网 ?硬件环境

软件环境 操作系统:centos6.5 数据库:MySql数据库 WEB环境:Nginx、php (2)测试工具:Sphinx (3)依赖工具:c++编译器、make程序、coreseek 5.功能性测试步骤

6.性能测试 6.1可操作性测试结果 6.2 安全性测试结果 6.3 兼容性测试结果 6.4 稳定性测试

6.5 压力测试 测试方法:通过sphinx工具可进行大数据全文检索,利用coreseek可对中文进行分词查询。 查询测试: 测试结果: Api调用测试成功 属性值输入测试成 英文查询测试成功 中文查询测试成功 7.测试小结 通过对Sphinx的功能和性能进行测试得出如下结论: 一、支持多种数据来源

网络优化测试报告

测 试 业 务 区 路测数据分析报告 ()

目录 第一章网络概况 (2) 1.1网络基本情况 (2) 1.2站点分布图 (2) 1.3测试方法介绍 (2) 第二章测试结果及分析 (4) 2.1RX P OWER (4) 2.3S TRONGEST E C/I O (4) 2.4A GGREGATE E C/I O (5) 2.5T X P OWER (6) 2.7F-FCH FER (7) 2.8TX A DJ (8) 第三章网络性能统计 (10) 3.1C ALL S ETUP R ATE (10) 3.2C ALL D ROP R ATE (10) 3.3H ANDOFF S TATISTICS R ESULT (10) 3.4A IR I NTERFACE S ETUP D ELAY (10) 第四章测试结论 (11)

第一章网络概况 1.1 网络基本情况 本网系统制式为:;频段为:MHz。 本次测试对象为:学校操场 本次测试业务为:。 1.2 站点分布图 本次测试涉及基站的分布图如下所示: 图0-1 测试区域站点分布图 1.3 测试方法介绍 测试路线:绕学校操场一圈 测试设备: 编号设备话音DT 话音CQT 数据DT 数据CQT 1 笔记本电脑一台一台一台一台 2 测试手机一台一台一台 3 无线网卡 4 GPS&天线& 一套 数据线 5 测试软件一套一套一套一套 测试选择: 对网络的评估比较只有基于一定的负载条件,采用同样的呼叫方式,才具有可比性。测试的设置: 1.根据预先确定的参数设置,进行DT测试、CQT测试和PM数据进行采集; 2.分别对DT、CQT和PM采集到的数据进行处理,按照标准分别进行评分;

相关文档
最新文档