分析数据处理

合集下载

常用数据分析与处理方法

常用数据分析与处理方法
D3.js
D3.js是一款基于JavaScript的数据可视化 库,提供了丰富的可视化效果和交互功能, 适用于制作复杂的数据可视化作品。
可视化设计原则
明确目的
在可视化设计之前,要明确可视化的目 的,确保图表能够有效地传达信息。
对比和层次感
通过对比和层次感来突出重要的信息 和数据点,使图表更加易于理解和记
05 数据挖掘
关联规则挖掘
关联规则挖掘
Apriori算法
通过发现数据集中项之间的有趣关系,帮 助企业识别顾客购买行为。
一种挖掘频繁项集的算法,通过不断剪枝 来减小候选项集的大小。
FP-Growth算法
支持度与置信度
一种高效挖掘频繁项集的算法,通过构建 FP树来快速生成频繁项集。
衡量关联规则强度的两个重要指标,支持 度表示规则在数据集中出现的频率,置信 度表示规则的预测强度。
数据来源
01
02
03
内部数据
来自组织内部的数据,如 销售记录、财务报告、员 工信息等。
外部数据
来自组织外部的数据,如 市场调查、竞争对手信息、 行业报告等。
公开数据
来自公共渠道的数据,如 政府机构、公共数据库、 社交媒体等。
数据收集方法
调查法
通过问卷、访谈等方式收集数据。
实验法
通过实验设计和实验结果收集数据。
忆。
简洁明了
设计时要尽量简洁明了,避免过多的 图表元素和复杂的布局,以免干扰信 息的传达。
可交互性
如果条件允许,可以设计交互式图表, 让用户能够通过交互来探索数据和获 取更多的信息。
THANKS FOR WATCHING
感谢您的观看
常用数据分析与处理方法
目录

数据分析和数据处理

数据分析和数据处理

数据分析和数据处理
数据分析是指从收集的数据中提取出有价值的信息,以支持管理决策。

如今,它已经发展成为一种科学的方法,使用数学、统计学和计算机科学
等技术,用于收集、组织和分析大量数据。

数据处理是指从各种不同的源
中收集数据,根据需求对数据进行加工,转换和汇总,以便处理数据,提
取必要的信息,并使之变得更有用。

数据处理的目标是让处理后的数据更
具有价值,便于提取必要的信息。

数据分析和数据处理是彼此紧密相关的两个环节。

数据分析是从大量
未加工的原始数据中进行统计建模和分析,从中提取有价值的信息,从而
改进过程,探索规律,支持决策。

而数据处理则将数据进行加工,清理,
整理,归纳,从中提取有价值的信息,以便进行数据分析。

一般而言,数据分析会先通过数据预处理来加工原始数据,这也是数
据驱动决策时最重要的步骤。

数据预处理的目的是确保原始数据符合提取
有价值信息的统计分析要求。

这种显示性处理包括缺失值补全、极值处理、类别变量处理、标准化、归一化等。

接下来,数据分析需要构建合理的模型,对数据进行多维分析,以统
计方法对数据进行建模。

数据的分析与处理

数据的分析与处理

数据的分析与处理一、引言数据的分析与处理是指对收集到的数据进行整理、统计和分析的过程,旨在从数据中提取有用的信息和洞察,并为决策和问题解决提供支持。

本文将详细介绍数据分析与处理的标准格式,包括数据整理、数据统计和数据分析三个方面。

二、数据整理数据整理是指对原始数据进行清洗、筛选和整合的过程,以确保数据的准确性和完整性。

1. 数据清洗数据清洗是指对数据中的错误、缺失、重复和异常值进行识别和处理的过程。

常用的数据清洗方法包括:- 删除重复值:通过比较数据记录的各个字段,识别并删除重复的数据记录。

- 处理缺失值:根据缺失值的类型和缺失的原因,采取填充、删除或插值等方法进行处理。

- 修正错误值:通过验证数据的合法性和一致性,识别并修正错误的数据值。

- 处理异常值:通过统计分析和专业知识,识别并处理异常的数据值。

2. 数据筛选数据筛选是指根据特定的条件和要求,从数据集中筛选出符合条件的数据记录。

常用的数据筛选方法包括:- 条件筛选:根据数据记录的某个字段或多个字段的取值,筛选出符合特定条件的数据记录。

- 随机抽样:通过随机数生成器,从数据集中随机抽取一部分数据记录作为样本。

- 分层抽样:根据数据记录的某个字段的取值,将数据集划分为若干层,然后在每一层中进行随机抽样。

3. 数据整合数据整合是指将多个数据源的数据进行合并和整合的过程。

常用的数据整合方法包括:- 数据连接:根据数据记录的某个字段或多个字段的取值,将两个或多个数据集进行连接。

- 数据合并:根据数据记录的某个字段的取值,将两个或多个数据集进行合并。

三、数据统计数据统计是指对整理好的数据进行描述性统计和推断性统计的过程,以获得对数据的整体特征和潜在规律的认识。

1. 描述性统计描述性统计是对数据进行总结和描述的过程,常用的描述性统计指标包括:- 频数和百分比:统计各个取值的频数和占比。

- 中心趋势:统计数据的均值、中位数和众数等指标。

- 离散程度:统计数据的方差、标准差和极差等指标。

数据的分析与处理

数据的分析与处理

数据的分析与处理一、引言数据的分析与处理是一项重要的工作,通过对数据的分析和处理,可以帮助我们了解数据的特征、趋势和规律,为决策提供科学依据。

本文将介绍数据分析与处理的基本步骤和常用方法,以及一些实际案例。

二、数据分析与处理的基本步骤1. 数据收集:收集需要分析和处理的数据,可以是实验数据、调查数据、统计数据等。

数据的来源可以是数据库、文件、传感器等。

2. 数据清洗:对收集到的数据进行清洗,包括去除重复数据、处理缺失值、处理异常值等。

清洗后的数据应具有一致性和完整性。

3. 数据预处理:对清洗后的数据进行预处理,包括数据平滑、数据归一化、数据离散化等。

预处理的目的是减少数据的噪声和冗余,提高数据的质量。

4. 数据分析:根据需求选择合适的数据分析方法,如描述统计分析、推断统计分析、数据挖掘等。

通过数据分析,可以揭示数据的规律和趋势,获取有用的信息。

5. 数据可视化:将分析结果以图表、图像等形式进行可视化展示,使数据更易于理解和解释。

常用的可视化工具包括Matplotlib、Tableau等。

6. 数据挖掘:通过数据挖掘技术,发现隐藏在数据中的模式、关联规则等。

数据挖掘可以帮助我们发现新的知识和洞察,对决策具有重要意义。

7. 数据模型建立:根据数据的特征和需求,建立合适的数据模型。

常用的数据模型包括回归模型、分类模型、聚类模型等。

数据模型可以用来预测未来趋势、分类数据、分析数据间的关系等。

8. 数据评估与优化:对建立的数据模型进行评估和优化,检验模型的准确性和可靠性。

根据评估结果,对模型进行调整和改进,提高模型的预测和分析能力。

三、常用的数据分析与处理方法1. 描述统计分析:通过计算数据的均值、方差、标准差等统计指标,描述数据的集中趋势和分散程度。

常用的描述统计方法包括频数分布、直方图、箱线图等。

2. 推断统计分析:通过对样本数据进行推断,得出总体的统计特征和参数估计。

常用的推断统计方法包括假设检验、置信区间估计、方差分析等。

数据的分析与处理

数据的分析与处理

数据的分析与处理一、引言数据的分析与处理是指对采集到的数据进行整理、分析和加工,以提取实用信息、发现规律和支持决策。

本文将介绍数据分析与处理的普通流程和常用方法,并结合具体案例进行详细说明。

二、数据的整理与清洗1. 数据采集:通过各种途径(如问卷调查、实验、传感器等)获取数据,并将其记录下来。

2. 数据检查:对采集到的数据进行初步检查,确保数据完整、准确、无重复和异常值。

3. 数据清洗:对数据进行去重、填补缺失值、处理异常值等操作,以确保数据的质量和可靠性。

三、数据的探索与描述1. 数据可视化:通过绘制柱状图、折线图、饼图等,直观地展示数据的分布、趋势和关系。

2. 描述统计:计算数据的均值、中位数、标准差等统计指标,描述数据的集中趋势和离散程度。

3. 相关性分析:通过计算相关系数或者绘制散点图,分析变量之间的相关关系,判断是否存在相关性。

四、数据的分析与建模1. 数据预处理:对数据进行特征选择、特征提取、特征变换等操作,为后续的建模做准备。

2. 建立模型:根据具体问题选择合适的模型,如线性回归、决策树、支持向量机等,进行建模。

3. 模型评估:通过交叉验证、ROC曲线、混淆矩阵等方法,评估模型的性能和准确度。

4. 模型优化:根据评估结果,对模型进行调参和优化,提高模型的预测能力和泛化能力。

五、数据的解释与应用1. 结果解释:对分析结果进行解释和描述,提取其中的关键信息和规律。

2. 决策支持:根据分析结果,提供决策支持和建议,匡助解决实际问题。

3. 数据报告:将分析结果整理成报告,以图表和文字的形式呈现,便于沟通和分享。

六、案例分析以某电商平台为例,分析用户购买行为与商品推荐的关系。

1. 数据整理与清洗:采集用户购买记录、用户信息和商品信息,进行数据清洗和去重。

2. 数据探索与描述:绘制用户购买次数的柱状图、用户购买金额的折线图,计算用户购买次数和购买金额的平均值和标准差。

3. 数据分析与建模:利用用户购买记录和商品信息,建立用户购买行为预测模型,如协同过滤推荐算法。

数据的分析与处理

数据的分析与处理

数据的分析与处理1. 概述数据的分析与处理是指对采集到的数据进行筛选、整理、分析和处理,以获取实用的信息和结论。

本文将介绍数据分析与处理的基本步骤和常用方法,并提供具体案例进行说明。

2. 数据采集和整理数据分析的第一步是采集数据。

数据可以通过各种途径获取,如调查问卷、实验记录、传感器数据等。

采集到的数据可能存在不完整、重复、错误等问题,因此需要进行整理和清洗。

整理数据的步骤包括去除重复数据、填补缺失值、纠正错误数据等。

3. 数据预处理数据预处理是为了减少数据中的噪声和冗余信息,以提高后续分析的准确性和效率。

常用的数据预处理方法包括数据平滑、数据聚合、数据规范化等。

例如,对时间序列数据可以进行平滑处理,以去除季节性和趋势性变化,便于后续的趋势分析。

4. 数据分析方法数据分析的方法有不少种,选择合适的方法取决于数据的类型和分析的目的。

以下是常用的数据分析方法:4.1 描述统计分析描述统计分析是对数据进行总结和描述的方法。

常用的描述统计指标包括平均值、中位数、标准差、频数分布等。

通过描述统计分析,可以了解数据的分布情况、集中趋势和离散程度。

4.2 探索性数据分析探索性数据分析是一种通过可视化手段来探索数据的方法。

通过绘制直方图、散点图、箱线图等图表,可以发现数据中的模式、异常值和相关性等信息。

探索性数据分析有助于深入理解数据,为后续的分析提供指导。

4.3 假设检验假设检验是用来验证关于总体参数的假设的方法。

通过采集样本数据,计算统计量并进行假设检验,可以判断总体参数是否满足某种假设。

常用的假设检验方法包括t检验、方差分析、卡方检验等。

4.4 回归分析回归分析用于研究变量之间的关系。

通过建立回归模型,可以预测一个或者多个自变量对因变量的影响。

回归分析常用的方法有线性回归、逻辑回归、多元回归等。

5. 数据可视化数据可视化是将数据转化为图表或者图形的过程,以便更直观地呈现数据的特征和趋势。

常用的数据可视化工具有条形图、折线图、散点图、热力图等。

数据的分析与处理

数据的分析与处理

数据的分析与处理概述:数据的分析与处理是指对采集到的数据进行整理、清洗、分析和处理的过程。

通过对数据的分析和处理,可以匡助我们更好地理解数据暗地里的信息和趋势,为决策提供科学依据。

一、数据整理与清洗:1. 数据采集:采集数据的来源可以包括调查问卷、实验记录、传感器数据等。

确保数据来源可靠、完整,并记录数据采集时间和地点。

2. 数据验证:对采集的数据进行验证,确保数据的准确性和完整性。

检查数据是否存在错误、缺失、异常值等。

3. 数据清洗:对数据进行清洗,包括删除重复数据、处理缺失值、处理异常值等。

使用合适的方法填补缺失值,剔除异常值,确保数据的质量。

4. 数据格式化:将数据统一转换为适合分析的格式,如日期格式、数值格式等。

确保数据的一致性和可比性。

二、数据分析方法:1. 描述性统计分析:对数据进行基本的统计分析,包括计算平均值、中位数、标准差、频数等。

通过描述性统计分析,可以初步了解数据的分布和特征。

2. 相关性分析:通过计算相关系数,分析不同变量之间的相关性。

可以使用皮尔逊相关系数、斯皮尔曼等级相关系数等方法进行分析。

3. 统计判断分析:通过抽样方法对数据进行判断性分析,包括假设检验、置信区间估计等。

通过统计判断分析,可以对总体进行判断,从样本得出结论。

4. 数据挖掘:使用数据挖掘算法,发现数据中的模式、关联规则、分类规则等。

常用的数据挖掘算法包括关联规则挖掘、聚类分析、决策树等。

三、数据处理方法:1. 数据转换:对数据进行转换,包括数据的标准化、归一化等。

通过数据转换,可以将不同尺度的数据进行比较和分析。

2. 数据聚合:将数据进行聚合,得到更高层次的数据。

可以使用求和、平均值等方法进行数据聚合。

3. 数据透视表:通过数据透视表的方式对数据进行分析和汇总。

可以按照不同的维度和指标进行数据透视,得到更加清晰的数据分析结果。

4. 数据可视化:使用图表、图形等方式将数据可视化,以便更好地理解数据。

可以使用柱状图、折线图、散点图等进行数据可视化。

数据的分析与处理

数据的分析与处理

数据的分析与处理概述:数据的分析与处理是指通过对收集到的数据进行整理、分析和加工,以获取有用的信息和洞察力。

本文将详细介绍数据分析与处理的标准格式,包括数据收集、数据清洗、数据分析和数据可视化等环节。

一、数据收集:数据收集是数据分析的第一步,它涉及到获取数据的来源和方法。

常见的数据收集方式包括问卷调查、实地观察、网络爬虫等。

在数据收集过程中,需要注意数据的可靠性和完整性。

例如,如果使用问卷调查收集数据,应确保样本的代表性和问卷的设计合理性。

二、数据清洗:数据清洗是指对收集到的数据进行筛选、整理和去除错误或重复数据的过程。

数据清洗的目的是确保数据的准确性和一致性。

在数据清洗过程中,可以使用各种工具和技术,如Excel、Python等。

常见的数据清洗操作包括去除空值、去除重复值、处理异常值等。

三、数据分析:数据分析是对清洗后的数据进行统计和分析的过程。

数据分析可以帮助我们发现数据的规律和趋势,从而做出合理的决策。

常见的数据分析方法包括描述统计分析、相关性分析、回归分析、聚类分析等。

在数据分析过程中,可以使用各种统计软件和编程工具,如SPSS、R、Python等。

四、数据可视化:数据可视化是将分析结果以图表、图形等形式展示出来,以便更好地理解和传达数据的含义。

数据可视化可以帮助人们更直观地把握数据的关系和趋势。

常见的数据可视化工具包括Excel、Tableau、Power BI等。

在进行数据可视化时,应选择合适的图表类型,并注意图表的美观和易读性。

五、数据处理:数据处理是对分析结果进行进一步加工和处理的过程。

数据处理可以包括数据的归类、排序、汇总、计算等操作。

常见的数据处理工具包括Excel、SQL等。

在数据处理过程中,应确保数据的准确性和一致性,并根据需求进行相应的数据转换和计算。

六、数据报告:数据报告是对分析和处理结果进行总结和呈现的过程。

数据报告应包括分析的目的、方法、结果和结论等内容。

在编写数据报告时,应注意语言的准确性和简洁性,并结合图表和图形进行说明。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
(3)如果可疑值有两个,而且分配在X1、X2、X3 ··· Xn-1、Xn 的两侧,若X1 、Xn为可疑值,分别检验X1 、Xn是否应舍去。 如有一个数据决定舍去,再检验另一个数据时,测定次数应作 少一次处理。
●教材P17例1-14
3
2、Dixon检验法 (D检验法)
该法比较简单,不需要计算平均值和标准偏差,可进
用于剔除多组测定值中精密度较差的一组数据,也用于 多组测定值的方差一致性检验,即等精度检验。
●检验程序如下:
(1)将m组测定值,每组n次测定,按其标准偏差大小顺序排
列,S1,S2,··· Sm,其中最大标准偏差为Smax,最大方差Smax2。
(2)计算统计量
C=
S2 m ax m
Si2
n =1
(3)给定显著性水平α,测定值组数m,每组测定次数n。
第二章 分析数据处理
• §2.1 分析数据的位数 • §2.2 可疑数据的取舍 • §2.3 显著性检验 • §2.4 标准曲线的相关性检验
§2.1 分析数据的位数
一、有效数字
有效数字构成:由全部准确数字和一位不确定数字构成。 有效数字的位数反映了测量的准确度。
记录和报告上的测量结果应包含有效数字,有效数字的位数 不能任意增减。
D(α, n)= D(0.05 , 10)= 0.477
Q D计 >D临
最小值14.65%应剔除。
当再检验下一个数时,已检验并应剔除的数应先删除,
再进行检验,此时n’= n-1。
● 8≤n≤10与 3≤n ≤7统计量D计算式有所不同。 见教材P17表1-3
1、 3≤ n≤7,采用统计量D计算式:
检最小值X1 :
如:修约为四位有效数字 1.327465 1.32746 1.3275 正确修约为: 1.327465 1.327
1.328 ×
2、修约间隔
修约间隔是确定修约保留位数的一种方式,修约间隔 的量一经确定,修约值即为该量值的整数倍。 修约间隔的量值指定为10 m(m可为负整数、零、正数) 的形式。 (1)当m为负整数时,表明将数值修约到m位小数。
1.0008 0.1000 0.0204 12 0.08 5600
42678 25.52%
五位有效数字 四位
1.98×10-5
三位
0.0020
二位
2×105
一位
100 pH=2.48
位数不确定 5.6×103 , 5.60×103
两位
三、数字的修约
1、基本修约规则 四要舍,六要上,五字看单双; 单数在前进一位,双数在前五舍先; 五后有数五进一,连续进位不应当。
D1
=
X2 Xn
X1 X1
检最大值X n :
Dn
=
Xn Xn
Xn 1 X1
2、 8≤n≤10 2 Xn 1
X1 X1
检最大值X n :
Dn
=
Xn Xn
Xn 1 X2
●检验程序如下:双侧情形
(1)根据表1-3,选择相应的D统计量计算D1和Dn; X1,X2,X3 ··· Xn-1,Xn
2
例2:a =3.1450,m =-2,则 b =3.14
10m
‫ ׀‬δ ‫ ׀=׀‬b-a ‫׀ =׀‬3.14-3.1450 ‫= ׀‬0.005 =
2
例3:将数8750按100间隔修约,要求m =2,并求舍入误
差。(相当于修约到百位)
则8750 ≈ 8800(5前为单数,应进) 舍入误差=8800-8750=50=10m/2
1.94
7
1.94
2.10
8
2.03
2.22
9
2.11
2.32
10
2.18
2.41
11
2.23
2.48
例:测定某铁矿石中Fe2O3(%)得到5个分析数据,按其 大小排列为30.02、30.12 、30.16 、30.18、30.18,第一个 数据30.02可疑,试判断是否应舍去(P = 0.95)? 解: X = 30.13,其中30.02偏差最大,故首先检验该数
(2)给定的显著性水平α和测定次数n,查双侧临界值 D° ( ( ,n) 教材P223附录表6);
(3)当Dn>D1,Dn > D° ( ,n) ,判断Xn 为异常值;当D1>Dn, D1 > D° ( ,n),判断X1 为异常值;应弃去,否则保留。
●教材P17:例1-14;例1-15
3、Cochran最大方差检验法
四、记数规则
1、记录测量数据时,只保留一位可疑数字; 2、表示精密度(标准偏差和不确定度)时,通常只取一位到 两位有效数字。 3、在数值计算中,当有效数字位数确定后,其余数字应按修 约规则进或舍。 4、在数值计算中,某些倍数、分数、某些物理量的有效数字 的位数可视为无限。如π、测定次数n、自由度ƒ。
●数字“0”对有效数字的影响。 (见教材P18 )
(1)它是否是有效数字,取决于它处在近似数中的位置; (2)小数点以后的零反映了近似数的误差,不能随意取舍; (3)在第一个有效数字之前的零与误差无关,起定位作用,
与测量的准确度无关,不是有效数字。
二、小数的位数
例如:23.51为几位有效数字?四位,两位小数 0.235为几位有效数字?三位,三位小数
1、Grubbs检验法(格鲁布斯法)
●检验程序如下:
(1)将数据由小到大排列: X1,X2,X3···Xn
(2)计算此组数据的平均值 X = Xi / n (3)计算标准偏差
s = ( Xi X )2 / (n 1)
(4)计算统计量G1或Gn
G1 = X
X min S

Gn
=
X max S
X
(5)给定显著性水平α(α = 1-P), α = 0.05
4、对数运算:计算结果有效数字位数与其真数位数 相同。
5、在计算4个以上数的平均值时,其有效数字可增 加一位。
2
注意:
(1)在运用计算器等计算工具时,可适当多保 留有效数字或小数位数;
(2)测量误差和测量不确定度一般只保留一至 两位有效数字,其余按规则舍入;
(3)提高精密度,依靠增加测定次数,降低随 机误差,增加结果有效数字位数。
检最大值X n :
Dn
=
Xn Xn
Xn 1 X2
X1 = 14.65%,X2 = 14.90%,Xn-1 = 15.01%
代入
D计
=
X2 Xn 1
X1 X1
14.90 14.65 = 0.694 15.01 14.65
由α= 0.05,n = 10 查Dixon检验单侧临界值D(α, n)附录表6:
S = 0.067
G1 = X
X min S
30.13 30.02 0.067
= 1.64 1.67
查G(α, n)临界值表n = 5,α = 0.05时,(附录表5教材P223) G(0.05,5)= 1.67,G1 <G(0.05,5) 判断可疑值30.02%应保留。
5个值都应参与均值,不应剔除。
例:6个实验室分析同一样品,各测定5次,其标准偏差0.84,
1.30,1.48,1.67,1.79,2.17,检验6个实验室的测定是否等
精密度。
解:其中最大标准偏差为2.17
α= 0.05,m = 6,n = 5,查表得C(α, m, n)= 0.480
C
=
S2 max m
Si 2
n=1
2.172 0.842 +1.302 1.482 + 1.672 1.792 + 2.172
五、有效数字的运算规则 (教材P18~19)
1、加减运算:计算结果小数位应与其中小数点后位数 最少的数相同。
例1:求1648.0+13.65+0.0082+1.632+86.82+5.135 +316.34+0.545=? 上述数中小数位最少的为一位,因此它们的和必须保 留一位小数。
1648.0+13.65+0.0082+1.632+86.82+5.135 +316.34+0.545=2072.13 ≈2072.1
(4)查表得科克伦最大方差检验临界值C(α, m , n)。
4
(5)若计算值C计 > 临界值C(α, m, n),则可疑方差为离群 方差,即该组数据精密度过低,应该剔除;若计算值C计≤ 临界值C(α, m, n),则判断该可疑方差为正常方差,应予保 留。
●蔡明招主编的“实用工业分析”P15 表1-6 “科克伦检验 临界值表(显著性水平α = 0.05 )”
例:一组测定值(%)按由小到大顺序排列为14.65,14.90, 14.90,14.92,14.95,14.96,15.00,15.00,15.01,15.02,
检验最小值14.65是否该舍去?(显著性水平α= 0.05 )
解:n = 10,计算统计量D
检最小值X1 :
D1
=
X2 Xn 1
X1 X1
= 4.7089 0.308 15.2879
计算值C计≤临界值C(α, m, n),故 2.17 2 为正常方差,即6个实
验室的测定为等精度,应予保留。克服了各实验室之间的系
(6)比较计算值G1 (或 Gn )与G(α, n)临界值,若
G1 (或Gn)> G(α, n),则该可疑值应剔除,否则
保留。G(α, n)值见教材P223附表5
Gα, n值表
测定次数n 置信度95% 置信度99%
α= 0.05
α= 0.01
3
1.15
1.15
4
1.46
1.49
5
相关文档
最新文档