测试平台数据比对及相关问题分析

合集下载

测试数据分析怎么做-测试数据分析方法和流程

测试数据分析怎么做-测试数据分析方法和流程

测试数据分析怎么做?测试数据分析方法和流程随着互联网和移动互联网的快速进展,软件测试变得越来越重要。

测试数据分析是软件测试过程中的一个重要环节,它可以关心测试人员更好地理解测试结果,发觉问题并提出解决方案。

本文将介绍测试数据分析的方法和流程,关心测试人员更好地进行测试数据分析。

测试数据分析的定义测试数据分析是指对测试数据进行分析和处理,以发觉测试结果中的问题和特别,并提出解决方案的过程。

测试数据分析可以关心测试人员更好地理解测试结果,发觉问题并提出解决方案,从而提高软件质量和用户满足度。

测试数据分析的方法1.数据收集测试数据分析的第一步是数据收集。

测试人员需要收集测试数据,包括测试用例、测试结果、测试日志、错误报告等。

测试数据应当尽可能全面和具体,以便更好地进行分析和处理。

2.数据清洗测试数据分析的其次步是数据清洗。

测试数据可能存在重复、错误、缺失等问题,需要进行清洗和处理。

测试人员可以使用数据清洗工具或手动清洗数据,确保数据的精确性和完整性。

3.数据分析测试数据分析的核心是数据分析。

测试人员需要对测试数据进行分析,发觉测试结果中的问题和特别,并提出解决方案。

测试数据分析可以使用数据分析工具或手动分析数据,依据测试目的和需求选择合适的分析方法。

4.数据可视化测试数据分析的最终一步是数据可视化。

测试人员需要将分析结果可视化,以便更好地理解测试结果和发觉问题。

测试数据可视化可以使用图表、报表、仪表盘等形式,使测试结果更加直观和易于理解。

测试数据分析的流程测试数据分析的流程包括数据收集、数据清洗、数据分析和数据可视化四个步骤。

详细流程如下:1.数据收集测试人员需要收集测试数据,包括测试用例、测试结果、测试日志、错误报告等。

测试数据应当尽可能全面和具体,以便更好地进行分析和处理。

2.数据清洗测试数据可能存在重复、错误、缺失等问题,需要进行清洗和处理。

测试人员可以使用数据清洗工具或手动清洗数据,确保数据的精确性和完整性。

如何应对库房温湿度验证方案中的数据比对问题

如何应对库房温湿度验证方案中的数据比对问题

如何应对库房温湿度验证方案中的数据比对问题库房温湿度验证方案是确保库房中的温湿度数据准确性和稳定性的重要工作。

然而,很多时候在进行数据比对时会遇到一些问题。

本文将探讨如何应对库房温湿度验证方案中的数据比对问题,并提出一些解决方案。

一、问题分析在库房温湿度验证方案中,数据比对是验证数据准确性的重要步骤。

但由于库房环境的多变性,以及采集仪器和传感器的实时性限制,可能会导致数据比对时出现差异。

常见的问题包括以下几个方面:1. 仪器精度问题:仪器的精度可能会影响数据比对的准确性。

不同型号和品牌的仪器具有不同的精度要求,如果选择不合适的仪器,就会导致数据比对结果不准确。

2. 数据采集时延问题:数据的采集存在一定的时延,温度或湿度的变化可能在数据采集后才能被反映出来。

这种时延可能导致数据比对的差异。

3. 数据传输问题:在数据传输过程中,未能确保数据的完整性和准确性,可能会导致数据比对结果不符合预期。

二、解决方案为了解决库房温湿度验证方案中的数据比对问题,我们可以采取以下几种解决方案:1. 选择合适的仪器:在进行数据比对前,首先要确保选择合适的仪器。

仪器的精度和准确性是影响数据比对结果的重要因素。

根据实际需求选择性能良好的仪器,并按照仪器说明书进行正确的使用和维护。

2. 考虑时延因素:在数据比对时,要考虑到数据采集的时延问题。

可以通过提前了解数据采集系统的采样频率和时延等参数来进行合理的补偿,以便更准确地进行数据比对。

3. 数据传输保障:确保数据传输的安全和准确性是避免数据比对问题的重要步骤。

可以采用加密技术或者其他安全策略来保证数据在传输过程中不被篡改或丢失。

同时,也可以采用冗余传输和数据备份来提高数据传输的可靠性。

4. 定期校准和验证:为了确保数据比对的准确性,需要定期对仪器进行校准和验证。

校准可以通过仪器自身提供的校准功能进行,验证可以通过与其他可靠的仪器进行比对来进行。

5. 数据处理和分析:对于比对结果出现差异的情况,要进行数据处理和分析。

测评中遇到问题及解决方法

测评中遇到问题及解决方法
反复验证
通过重复实验或对比实验,验证测评结果的可靠性和稳定性。
标准化
采用标准化的测评工具和方法,减少误差和干扰因素,提高测评结果的可靠性。
测评伦理与法律责任问题
隐私保护
保护被测评者的个人隐私,不得随意泄露个人信息。
法律责任
明确测评者的法律责任,以避免侵犯他人的权益和触犯法律。
06
总结与建议
对现有测评体系的反思
加强沟通和协调,以促进各方的合 作和支持。
04
测评实践案例分析
企业员工绩效评估案例
总结词
在实施企业员工绩效评估时,可 以采用平衡计分卡、360度反馈 、关键绩效指标等评估方法来全 面、客观地衡量员工的工作绩效 。
评估方法
平衡计分卡和360度反馈评估员 工多维度的工作表现,关键绩效 指标则可以衡量员工对组织目标 的贡献程度。
要点一
测评指标不够全面
要点二
测评标准不清晰
现有测评体系可能只关注了某些方面 的表现,而忽略了其他重要的方面, 需要进一步完善。
有些测评体系中的标准可能不够明确 ,导致评价结果存在主观性和不确定 性。
要点三
测评结果才能 得到反馈,使得被测评者无法及时了 解自己的表现并做出改进。
其他常见问题
总结词
测评周期过长、成本过高、技术限制
详细描述
其他常见问题包括测评周期过长,导致测评结果滞后,测评成本过高,无法承受,以及技术限制,如缺乏先进 的数据分析工具和方法等。
03
提高测评质量的措施
制定合理的测评指标
综合性指标
01
制定涵盖多个领域的综合性指标,以全面反映被测评对象的整
体情况。
数据处理不当
总结词
数据不准确、数据处理方法不科学、数据缺失

网络测试工具使用中常见问题十三:测试效果验证与实际场景的对比(五)

网络测试工具使用中常见问题十三:测试效果验证与实际场景的对比(五)

网络测试工具使用中常见问题十三:测试效果验证与实际场景的对比网络测试工具在现代互联网的发展中起到了举足轻重的作用,它们可以帮助评估网络连接质量、测量网络带宽,并提供多种功能来帮助排除网络问题。

然而,在使用这些工具时,我们必须谨慎,因为测试结果与实际场景的对比可能存在一定的差异。

本文将讨论网络测试工具的使用中可能遇到的问题,特别是与测试效果验证和实际场景的对比有关的问题。

一、测试方法的选择在进行网络测试时,要根据具体的需求选择适当的测试方法。

不同的测试方法适用于不同的场景,使用不正确的测试方法可能导致不准确的结果。

例如,如果我们想要测试网络连接的稳定性,使用ping命令来测量延迟可能得到不准确的结果,因为ping命令只发送少量的数据包,而实际应用程序往往会发送更大量的数据。

在这种情况下,应该使用更能模拟实际应用负载的测试方法,如iperf。

二、测试环境的复现进行网络测试时,要尽量复现实际场景中的网络环境。

网络连接的质量受多种因素影响,如带宽、延迟、丢包率等。

如果测试环境与实际场景有显著的差异,测试结果可能无法准确反映实际情况。

为了解决这个问题,我们可以使用脚本或者配置文件来模拟实际场景中的网络环境。

例如,可以使用tc命令来控制带宽、延迟和丢包率等参数。

三、测试数据的真实性在使用网络测试工具进行测试时,要确保测试数据的真实性。

有些网络测试工具可以通过记录和分析网络流量,来提供更准确的测试结果。

然而,某些网络测试工具可能会出现数据泄漏或者篡改的情况,导致测试结果不可信。

为了避免这种情况,我们应该选择可靠的网络测试工具,并采取适当的安全措施。

四、测试结果的分析在进行网络测试后,我们需要对测试结果进行分析。

然而,测试结果往往是复杂的,需要深入的分析来获得有价值的信息。

在进行结果分析时,要注意排除一些可能的误导因素,如网络噪声、测试工具的误差等。

同时,我们还需要对测试结果和实际场景进行对比,以了解测试工具的精确性和可靠性。

软件测试结果及分析报告

软件测试结果及分析报告

软件测试结果及分析报告1. 引言本文档旨在提供对软件测试结果的详细分析报告,以便评估系统的质量和稳定性。

通过对测试过程的回顾和对结果的分析,可以发现系统中存在的潜在问题,并提出相应的改进建议。

2. 测试环境在进行软件测试之前,我们搭建了以下测试环境: - 操作系统:Windows 10 - 浏览器:Google Chrome 90.0.4430.212 - 测试工具:Selenium WebDriver3. 测试范围和目标测试的范围是对系统的功能进行全面测试,包括以下方面: - 用户登录和注册功能 - 数据输入和处理功能 - 数据库管理和维护功能 - 系统性能和稳定性测试的目标是验证系统是否满足设计和需求的要求,是否存在潜在的错误和缺陷。

4. 测试方法和策略为了达到测试目标,我们采用了以下测试方法和策略: - 黑盒测试:通过测试系统的输入和输出来验证系统的功能是否符合预期。

- 白盒测试:通过分析系统的内部结构和代码来验证系统的正确性和稳定性。

- 冒烟测试:验证系统的核心功能是否正常工作。

- 边界值测试:验证系统在边界条件下的行为和处理能力。

- 压力测试:评估系统在高负载下的性能和稳定性。

5. 测试结果经过全面的测试,我们得到了如下的测试结果:5.1 用户登录和注册功能测试结果•用户登录功能正常工作,可以成功登录系统。

•用户注册功能正常工作,可以成功注册新用户。

5.2 数据输入和处理功能测试结果•数据输入功能正常工作,可以正确接收和处理用户输入的数据。

•数据处理功能正常工作,可以正确地对数据进行处理和计算。

5.3 数据库管理和维护功能测试结果•数据库连接和管理功能正常工作,可以成功连接和管理数据库。

•数据库维护功能正常工作,可以对数据库进行备份和恢复。

5.4 系统性能和稳定性测试结果•在正常负载下,系统的性能良好,响应速度快。

•在高负载下,系统的性能有所下降,但仍保持在可接受的范围内。

•系统稳定性良好,没有出现崩溃或异常中断的情况。

性能测试问题总结

性能测试问题总结

性能测试问题总结在软件开发和系统优化的过程中,性能测试是至关重要的环节。

通过性能测试,我们可以发现系统在处理大量用户请求、高并发场景以及复杂业务逻辑时可能出现的性能瓶颈和问题。

然而,在进行性能测试的过程中,往往会遇到各种各样的挑战和问题。

接下来,我将对常见的性能测试问题进行总结和分析。

一、测试环境问题1、硬件配置不一致在性能测试中,如果测试环境的硬件配置与生产环境存在较大差异,那么测试结果的参考价值就会大打折扣。

例如,生产环境使用的是高性能服务器,而测试环境使用的是配置较低的服务器,可能导致测试结果显示系统性能良好,但在实际生产环境中却出现性能瓶颈。

2、网络环境差异网络环境的不同也会对性能测试结果产生影响。

测试环境中的网络带宽、延迟和丢包率等参数可能与生产环境不同,从而导致测试结果无法真实反映系统在实际网络环境中的性能表现。

3、软件版本不一致测试环境中使用的软件版本与生产环境不一致,可能会引入一些未知的差异。

例如,数据库版本、中间件版本的不同,可能会导致性能表现的差异。

二、测试脚本问题1、脚本逻辑错误性能测试脚本的逻辑如果存在错误,可能会导致测试结果不准确。

例如,没有正确模拟用户的操作流程,或者在脚本中存在重复请求、遗漏关键步骤等问题。

2、参数化不合理在性能测试中,常常需要对一些数据进行参数化,以模拟真实的用户场景。

如果参数化不合理,例如参数取值范围不合理、参数分布不均匀等,可能会导致测试结果无法反映真实的系统性能。

3、关联和断言设置不当脚本中的关联和断言设置不当,可能会导致测试失败或者测试结果不准确。

例如,关联没有正确获取到动态数据,断言设置过于严格或宽松。

三、测试数据问题1、数据量不足如果测试数据量不足,无法模拟真实的业务场景,可能会导致系统在处理大量数据时出现性能问题。

2、数据分布不合理测试数据的分布如果不合理,例如某些数据类型出现的频率过高或过低,可能会影响测试结果的准确性。

3、数据质量问题测试数据中存在错误、重复或不完整的数据,可能会导致系统在处理数据时出现异常,从而影响性能测试结果。

TestStand测试结果分析与优化技巧分享

TestStand测试结果分析与优化技巧分享TestStand作为一款广泛应用于测试开发的自动化测试平台,通过对测试结果的分析与优化,能够提高测试效率和准确性。

本文将重点探讨TestStand测试结果分析的方法和优化技巧。

一、测试结果分析1. 收集和整理数据在进行TestStand测试结果分析之前,首先要收集和整理测试数据。

通过TestStand的数据存储工具或其他数据处理软件,将测试结果导出为指定的数据格式,便于后续分析。

同时,对于大规模测试项目,建议建立数据库,以便更好地管理和查询测试数据。

2. 基本统计分析在完成数据整理后,可以进行基本的统计分析。

常见的统计指标包括平均值、标准差、最大值、最小值等,这些指标可以帮助我们了解测试的整体情况。

通过对这些指标的计算和比较,可以判断测试结果是否符合预期,并且可以从中发现一些异常情况。

3. 数据可视化除了基本的统计分析,将数据可视化也是非常重要的一步。

通过绘制直方图、折线图、散点图等图表,可以更直观地展示测试结果的分布情况和趋势变化。

通过观察图表,我们可以更容易地发现一些异常数据点或者规律性的变化,进而提出改进的方案。

4. 数据挖掘和分析当测试数据量较大时,可以借助数据挖掘和分析的方法,挖掘潜在的规律和关联性。

通过数据挖掘算法,可以从大量的测试数据中提取出有用的信息,帮助我们更深入地了解测试系统的性能和稳定性。

同时,还可以运用数据建模的技术,预测未来的测试结果和趋势。

二、测试结果优化技巧1. 优化测试流程首先,要对测试流程进行优化。

设计合理的测试用例,确保对系统各个功能模块进行全面的覆盖。

同时,优化测试顺序,将重要的测试用例优先进行,以提前发现问题。

另外,在测试过程中,利用并行测试和批量测试的方法,提高测试效率。

2. 异常结果处理在测试过程中,会遇到一些异常结果,如测试失败、超时等。

针对这些异常结果,及时处理和分析,找出问题的原因,并进行相应的修复和优化。

软件测试的常见问题及解决方法培训

软件测试的常见问题及解决方法培训在软件开发过程中,软件测试是不可或缺的环节。

它旨在发现和修复软件中的漏洞和错误,确保软件的质量和稳定性。

然而,在进行软件测试时,常常会遇到一些问题。

本文将介绍软件测试中常见的问题,并提供相应的解决方法培训。

问题一:测试过程不规范在软件测试过程中,测试人员可能会面临测试用例缺失、测试数据不完善、测试环境不稳定等问题,导致测试的不准确和不可靠。

解决方法:1. 编写规范的测试用例:测试人员应根据需求和设计文档编写详细的测试用例,对功能、边界条件、异常情况等进行全面覆盖。

2. 准备完备的测试数据:测试人员应确保测试数据的准确性和完整性,涵盖各种测试场景。

3. 稳定的测试环境:测试人员应尽量提前搭建稳定的测试环境,包括硬件、软件配置,确保测试环境与真实环境一致。

问题二:测试执行效率低下在软件测试执行过程中,由于测试用例繁多或测试数据较大,导致测试执行效率低下,影响项目进度。

解决方法:1. 优化测试用例:测试人员应根据测试重要性和风险程度对测试用例进行优化,对于重要的测试场景,进行更多的测试用例设计和执行。

2. 自动化测试:利用自动化测试工具,对常规的测试用例进行自动化执行,减少人工干预,提高测试执行效率。

3. 并发执行测试:利用并行测试环境,同时执行多个测试用例,提高测试执行效率。

问题三:缺乏对测试结果的分析和评估测试结果的分析和评估是软件测试中非常重要的一环。

缺乏对测试结果的准确分析和评估,会导致无法准确评估软件质量,也无法及时发现和解决问题。

解决方法:1. 使用测试分析工具:测试人员可以使用各种测试分析工具,对测试结果进行分析和评估,发现潜在的问题和风险。

2. 制定评估标准:测试人员应制定一套适合项目的评估标准,对测试结果进行量化评估,以便更准确地评估软件质量。

3. 定期汇报测试结果:测试人员应及时向项目团队和管理层汇报测试结果,让相关人员了解测试进展和测试质量。

问题四:缺乏沟通和合作软件测试是一个与开发团队、需求团队、用户团队等多个团队紧密合作的过程。

脱毛率测试比对结果分析

脱毛率测试比对结果分析上半年SGS对万豪集团的巾类产品进行测试,其中脱毛率的数值异常,测试8个样品,平均值为2.04%,超出国家标准的最低要求2倍多,其中最大值3.3%,最小值1.3%。

检测中心随机对其中一款样品进行了复检,样品代码HILTON 地巾(400g/条),SGS的测试数据位1.6%,检测中心洗前克重(干)373.95g,洗后373.68g,脱毛率为0.07%。

因两家检验机构测试数据相差甚远(相差18倍多),随即重新抽取他样“万丽浴巾”分送另外三家检验机构,检测结果如下:检验机构测试值(%)中纺标0.2北京毛麻丝0.4从该表数据分析来看平均值为0.5%,中位值0.3%,最大1.2%,最小0.2%,其中3家测试数据基本吻合,南京出入境的测试数据可疑。

从该项测试比对的结果来看,测试结果不满意,5家检验机构,有两家数据可疑,抛开样品的差异性来说,该项测试要求较为严格,容易出错。

其中有几点尤为重要:第一,取整条样品,且样品中重量不得低于100g。

SGS第一次的测试过程就犯了这个错误,他取的样品为浴巾其他测试完后的样品,四周锁边再进行测试,因为巾类产品的特殊性,剪过之后毛圈容易脱落,无形之中增加了他的脱毛率。

第二,吸湿平衡。

这个过程看似简单,其实技术要求特别严格,因为巾类产品大多数为纯棉织物,棉的吸湿性特别大,为了交易的公平性,国际统一引用了“回潮率”这个概念,在这里虽然没有强制性要求在标准回潮率下,但是特别提出在标准大气环境中暴露至恒重,并且要求每隔2H连续称量,质量的变化≤0.25%,才认为达到恒重。

这个要求操作起来较为繁琐,却又是至关重要的一步,数据的准确性直接影响到最后的测试结果。

第三,洗涤。

这个要求也是容易忽略的一个环节,以我们检测中心自身为例,这项测试曾经连续有几年因为数据的不稳定都被暂停了,后来通过不停的测试比对和数据分析,就是洗涤方式出了问题。

这项洗涤要求不同于其他测试选择常规的2A,5A程序,他要求“仿手洗”,样品和陪洗物总重量达到1kg,洗涤时间仅为1min。

TestStand中的测试数据处理与分析洞察测试结果

TestStand中的测试数据处理与分析洞察测试结果TestStand是一款常用的测试自动化开发环境,广泛应用于各类产品的测试过程中。

在测试过程中,测试数据的处理和分析是非常重要的环节,能够帮助我们深入了解测试结果,从而进行问题定位和性能优化等工作。

本文将探讨如何在TestStand中进行测试数据处理与分析,以洞察测试结果。

一、测试数据的收集在TestStand中,测试数据的收集是通过仪器设备以及自定义的测试插件实现的。

通过配置测试插件,我们可以设置需要采集的测试数据类型和频率,以满足测试需求。

在测试过程中,测试数据会自动记录并保存在TestStand的数据文件中,便于后续的处理和分析。

二、数据处理与清洗测试数据可能存在噪声、异常值等情况,需要进行数据处理和清洗,以保证后续分析的准确性。

在TestStand中,我们可以通过自定义的数据处理模块来实现数据的清洗工作。

比如,可以使用滤波算法对数据进行平滑处理,去除离群值,并通过插值等方法填补缺失值。

三、数据分析与可视化在得到经过处理和清洗的测试数据后,我们可以通过TestStand中的数据分析工具进行进一步的分析。

TestStand提供了丰富的数据分析函数和工具,例如统计分析、回归分析、相关性分析等。

通过这些工具,我们可以对测试数据进行统计摘要、趋势分析、功耗分析等,帮助我们更好地理解测试结果。

为了更直观地展示测试结果,TestStand还支持数据可视化功能。

我们可以使用TestStand提供的图表绘制工具,将测试数据以直方图、散点图、线性图等形式呈现。

通过数据可视化,我们可以更清晰地观察测试结果的分布情况、趋势变化等,有助于我们洞察测试结果并作出合理的判断。

四、结果分析与优化通过以上的数据处理和分析工作,我们可以对测试结果进行深入的研究和分析,进而在产品开发过程中做出相应的优化措施。

比如,如果测试数据呈现出明显的异常值,我们可以针对异常值进行问题定位和修复;如果测试数据存在趋势变化,我们可以分析其原因并进行性能优化等。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第6期2016年12月微处理机

MICROPROCESSORSNo. 6

Dec. ,2016

测试平台数据比对及相关问题分析石志刚(北京确安科技股份有限公司,北京100094)

摘要:在芯片产业链中,芯片测试环节是不可或缺的,是对芯片产品质量检验的重要手段之一。 为了满足测试产能的需要,受各种因素影响,往往需要在不同测试平台进行产能扩展的活动,开发对 应的测试程序。在芯片测试程序开发完成之后,需要对测试平台移植进行风险评估,也就是工程批实 验,根据实验结果判断是否可以进行后续量产。通过对一款芯片在T2000和J750两种测试平台的 测试数据进行分析,深入了解测试平台移植过程中,如何对开发结果进行评价,并在对测试数据进 行详细比对和差异化问题分析过程中,从不同角度阐述测试数据的一致性和重复性问题。关键词:J750测试机;T2000测试机;比对;一致性;重复性;差异 DOI:10. 3969/j. issn. 1002 -2279.2016.06.005中图分类号:TN47 文献标识码:B 文章编号= 1002 -2279 (2016) 06 -0015 -04

Comparison and Analysis of Test Platform DataShi Zhigang{Beijing Chipadvanced Co. ,Ltd. , Beijing 1QQQ94, China)

Abstract : In the chip industry chain, the chip testing process is important for inspecting the chip

products quality. In order to meet the needs of production test and reduce the influence by variousfactors, the capacity expansion of activities and the development of the test program are needed in different test platform. After the development of the chip test program, the risk assessment is conducted for the test platform transplant, i. e. the project number of experiments. According to the results of the experiment, the subsequent production is determined. Through analysis of test data in T2000 and J750 test platform, the development results are evaluated during the process of test platform transplantation. The consistency and reproducibility of different test data are described in the process of the detailed comparison and differentiation analysis of the data.Key words:J750 tester;T2000 tester;Comparison;Consistency;Repeatability;Difference

i引言随着电子技术的不断革新,涉及的范围也在不 断扩大。在芯片测试行业[1],同一款芯片测试在不 同机台上面开发时有发生,往往在产能调配,或者产 能激增的情况下发生,那么多种平台的测试结果比 对就显得尤为重要。

2平台介绍

泰瑞达J750[2]测试机是集成电路测试设备历 史上最常用的机台之一,如图1所示,也是作者本人 用得最多的测试平台。平台采用WINDOWS操作系

统,人机界面友好、简单,基于板卡的硬件架构,维护 性好,配上MS0,基本能满足SoC的测试需求,有着 较高的测试性价比,同时为二十世纪复杂芯片的测 试提出了全新的INTEGRATEST技术。爱德万T2000[3]测试机是一台开放式架构测试 系统,也是当今相对最高端的测试系统。2000的测 试模块丰富,数字测试部分可达到800MDM、对高速 接口测试要求配置了 6. 5GDM测试模块。模拟测 试部分的模块可以支持到24bit的高精度测试、以及 满足最大400Msps模拟信号的频率发生。RFIC测 试方面,支持12GRF测试频率的端口有32个,四组 独立的VSG/VSA配合内嵌FFT引擎,可以满足更

作者简介:石志刚(1983 -),男,北京人,硕士研究生,主研方向:集成电路测试。 收稿日期:2016 -05 -10• 16 •微处理机2016 年

高速的测试计算,提供更高效的同测支持,从而进一 步实现了 RFIC测试的低成本化。拥有丰富多样、 功能强大的测试模块,用户可以根据测试需求来组 合不同测试模块,将T2000配置成能满足MPU、音 视频IC、RFIC等不同芯片测试的低成本测试解决 方案。3 T2000 VS J750测试平台间比对大部分功能测试都是通过测试向量的方式进行 的测试,在不同测试平台有不同的格式,但本质是一 样的。测试向量是对芯片所设计的一系列逻辑功能 的输人输出状态的描述,包含了输人激励和预期存 储响应真值表,通过输出是否达到预期判断芯片功 能是否正常[4]。在两个测试平台上对同一款芯片的同一枚晶圆进行Sortl& Sort2测试(Sortl表本进 行第一次测试,Sort2表示进行第二次测试,两次测 试的程序是独立的),根据所得到的数据,进行测试 时间、测试良率、BIN值统计和map图分布比较。采用两种方案进行,第一种是J750平台的8 SITE并行测试方案,S0RT1测试时间为102分钟, S0RT2测试时间为148分钟,总共250分钟;第二种 是T2000平台的64 SITE并行测试方案,S0RT1测 试时间为15分钟,S0RT2测试时间为38分钟,总共 53分钟.良率对比和测试时间对比如图1所示,从 对比数据中可以看到,T2000平台的64SITE方案的 测试效率为J750平台8SITE方案的4. 717倍,加上 几乎不存在因误宰引起的补测成本,T2000方案已 经达到立项的初衷,并大大超过。

图1 T2000 VS J750良率对比、测试时间对比失效BIN值对比:从对比结果可以看出,T2000 接近1%,同样将EEPR0M测试项的所有失效管芯提在sortl远场测试EEPR0M时将所有失效管芯提前 前拦截,与sortl结果基本吻合。另外,S〇rt2的IV51拦截;在sort2测试时,同样在EEPR0M测试项上相差 测试项相差2%,存在异常,如图2和图3所示。

300250200150100J750vs.T2000_统计_Sortl.■.-nil_L1.20%1.00%0.80%0.60%0.40%0.20%

0.00%

-0.20%-0.40%

■J750□T2000GAP

4 5 6 8 10 11 12 14 19 20 21 22 23 24 25 26图 2 J750 VS T2000 比对统if_SortlJ750vs.T2000比对统,_Sort22 3 4 S 6 7 8 10 11 12 14 15 20 21 22 23 24 25 261.50%1.00%0.50%[).00%_IJ750-0.50*^3X2030-1碑GAP-1.50%-2.00%-2.50%图 3 J750 VS T2000 比对统i+_Sort2

4 T2000内部比对[7]

每个测试机的测试原理是相同的,但结构上是 有区别的,在编制测试程序时,实现的方法不尽相 同,在开发测试程序时就需要充分发挥测试机的硬

件特点,以达到提高测试程序运行速度的目的。测 试程序应当尽量结构简单,复杂的测试程序可能导 致测试机的软硬件冲突,反而增加测试时间[5]。为了确定平台移植的可靠性,使用该款芯片在 T2000平台对同一枚晶圆进行Sortl和Sort2测试各6期石志刚:测试平台数据比对及相关问题分析

• 17 •

两遍,考察测试的重复性和一致性。 1.3%,存在误宰,与T2000 VS J750测试平台台间良率对比和测试时间对比:S0RT1的成品率误 比对实验存在相似性,如图4所示。差为零,不存在误宰;而S0RT2的成品率误差为

图4 T2000良率对比、测试时间对比失效BIN值对比:从对比结果可以看出,T2000 内部比对中sortl在失效bin值方面吻合度很高,而S〇rt2重复性测试中的主要差另丨J在IV51上,相差达图 6 T2000 比对统if_S〇rt25 IV51差异分析[6]在J750平台和T2000平台比对、以及T2000内部比对时均出现IV51结果差异较大问题,为了找出 问题原因做了如下实验:实验1:在J750和T2000测试平台上对芯片 VPA管脚施加相同测试条件(OPEN ),取同一片 wafer相同位置管芯的IV51_L1测量值,其结果如图7所示,该64个管芯的取值趋势相同,但T2000整 体取值比J750大1.8mA左右。

实验2:在T2000测试平台上对芯片VPA管脚 施加不同测试条件(OPEN, force 5V,force 3. 3V

等),取与实验1相同位置管芯的IV51_L1测量值, 其结果如图8所示,该64个管芯的取值趋势相同, 但三个不同条件下平均值依次为4. 83mA,2. 80mA,

1 • 32mA0

实验3:根据实验2结果,在T2000程序中给 VPA管脚施加3. 3V & 3. 29V的方式测试,对整片 wafer的IV51取值进行统计,其结果平均值比J750 小0.26mA,如图9所示。

相关文档
最新文档