显著性和互作效应分析报告
统计学中的统计显著性与效应大小

统计学中的统计显著性与效应大小统计学是一门研究数据整理、分析和解释的学科,用于从现有数据中得出结论和推断。
在统计学中,统计显著性和效应大小是两个重要的概念,它们有助于我们理解研究结果的可信度和实际意义。
本文将详细解释统计显著性和效应大小,并探讨它们在实际应用中的意义和限制。
一、统计显著性统计显著性是指通过对数据进行统计分析,判断观察到的差异是否是由于变异引起的,还是由于真正的因素引起的。
它通过计算一个统计量(例如t值或F值),然后与一个临界值进行对比来确定结果的可信程度。
如果统计量的值超过了临界值,我们就可以说结果是具有统计学显著性的。
然而,统计显著性并不等同于实际意义或效果的重要性。
它只能告诉我们差异是否是由于随机因素而产生的。
如果样本容量足够大,即使观察到很小的差异,也可能达到统计学显著性。
因此,在判断研究结果时,我们不能仅仅依靠统计显著性的结果,还需要考虑效应大小。
二、效应大小效应大小是指观察到的差异在实际意义上的重要程度。
通常,我们使用一些指标来度量效应大小,比如相关系数、标准化的均值差异等。
效应大小的解释通常是主观的,取决于具体的研究背景和领域。
效应大小与统计显著性密切相关,但又不同于统计显著性。
一个小效应可能在足够大的样本中达到统计学显著性,但它可能对研究领域的实际应用影响较小。
相反,一个大效应即使在小样本中也可能达到统计学显著性,并对实际问题具有重要的意义。
三、统计显著性与效应大小的关系统计显著性和效应大小的关系是广泛讨论的话题。
在一些研究中,我们可能发现一个显著的但效应很小的结果,这种情况被认为是“统计上显著但不实质上显著”的。
这种情况下,我们需要谨慎解释结果,并考虑使用其他衡量指标来评估效应的大小。
另一方面,在一些研究中,尽管效应很大,但由于样本容量不足等原因,可能未达到统计学显著性的水平。
这种情况下,我们应该重视效应的大小,并认识到样本容量对结果的影响。
统计显著性和效应大小的关系还取决于研究领域和具体的研究问题。
报告结果的效应大小与显著性的解读与发现

报告结果的效应大小与显著性的解读与发现一、概述在科学研究中,报告结果是至关重要的一环,它不仅可以展示研究者的努力与成果,更能向学术界和社会大众传递信息。
然而,报告结果的效应大小和显著性对于读者的解读和理解至关重要。
本文将围绕这一主题展开详细论述,旨在探讨效应大小和显著性的概念、解读方法和潜在的发现。
二、效应大小的概念与解读效应大小指的是所研究变量之间的差异或关联程度的量化指标。
一般通过统计参数(如均值差、相关系数等)来衡量。
在解读效应大小时,我们需要综合考虑研究背景、实际意义和统计显著性等多个因素。
效应大小可以分为小、中、大三个等级,通过Cohen's d和η²等指标进行计算。
一般认为,效应大小大于0.2为小效应,大于0.5为中效应,大于0.8为大效应。
但需要注意,对于某些领域和特定研究问题,效应大小的判断标准可能会有所不同。
三、显著性的概念与解读显著性是指研究结果在统计学上的显著程度,表示所观察到的差异或关联是否是由随机因素引起的。
通常,我们使用P值作为判断显著性的依据,P值小于0.05被认为是显著的。
然而,显著性并不意味着效应的大小或实际意义,它只是对差异或关联的一个统计判断。
因此,在解读显著性时,也需要考虑效应大小和实际意义等因素。
四、效应大小与显著性的关系与影响效应大小和显著性虽然有一定的关联,但并不完全一致。
显著性仅仅是判断差异或关联是否存在,而效应大小则提供了更加具体和客观的量化信息。
一般情况下,显著结果配合大效应大小更为可靠和有意义,反之亦然。
此外,有研究发现,当效应大小较小时,即使显著性很高,也可能对实际应用或理论建构影响甚微。
因此,在解读和报道研究结果时,我们需要综合考虑效应大小和显著性,避免过分强调显著性而忽略效应的实际意义。
五、效应大小与显著性的实例解析以某研究为例,假设研究目的是探究睡眠质量与工作效能之间的关系。
研究结果显示,睡眠质量与工作效能之间存在显著的负相关(P<0.05),相关系数为-0.2。
显著性差异分析

显著性差异分析在我们的日常生活和各种研究领域中,“显著性差异分析”这个概念常常被提及。
但它究竟是什么意思呢?简单来说,显著性差异分析就是用来判断两组或多组数据之间的差异是否足够显著,以至于不能仅仅归因于随机因素。
想象一下,我们在比较两个班级学生的考试成绩。
一个班级的平均分是 80 分,另一个班级是 85 分。
这 5 分的差距仅仅是偶然造成的,还是真的反映了两个班级在学习效果上存在本质的不同?这就是显著性差异分析要回答的问题。
为了进行显著性差异分析,首先我们需要明确数据的类型。
数据可以分为定量数据和定性数据。
定量数据是那些可以用数字明确表示的,比如身高、体重、考试成绩等;定性数据则是那些不能用数字精确度量的,比如性别、颜色、血型等。
对于定量数据,我们常常使用 t 检验、方差分析等方法来判断显著性差异。
比如说 t 检验,它适用于比较两组独立样本的均值是否有显著差异。
假设我们想比较一种新的教学方法和传统教学方法对学生数学成绩的影响。
我们分别用新方法和传统方法教两个不同的班级,然后收集他们的考试成绩。
通过计算 t 值,并与临界值进行比较,我们就能知道这两种教学方法所产生的成绩差异是否显著。
方差分析则用于比较三个或更多组的均值是否有显著差异。
例如,我们想研究不同的肥料对农作物产量的影响,设置了三种不同的肥料处理组,然后测量每组农作物的产量。
通过方差分析,我们可以判断这三种肥料的效果是否有显著的不同。
而对于定性数据,我们会用到卡方检验。
假设我们在研究吸烟与患肺癌之间的关系,将人群分为吸烟组和不吸烟组,患肺癌组和未患肺癌组。
通过卡方检验,我们可以确定吸烟和患肺癌之间是否存在显著的关联。
在进行显著性差异分析时,有几个关键的概念需要理解。
一个是 p 值。
p 值表示在假设原假设为真的情况下,观察到当前样本结果或者更极端结果的概率。
通常,如果 p 值小于一个预先设定的阈值(比如005),我们就拒绝原假设,认为存在显著性差异。
显著性和互作效应分析

显著性和互作效应分析显著性分析是指对实验或观察数据进行统计分析,以确定观察到的差异是否由于偶然因素引起,还是由于真实的差异造成。
在这种分析中,研究者会将一个或多个变量作为自变量,将要观察或测量的结果作为因变量。
然后,使用适当的统计方法(如t检验、方差分析等)对数据进行处理,计算出统计指标(如p值、置信区间等),以判断差异是否具有统计学意义。
如果p值小于事先设定的显著性水平(通常为0.05),则可以认为差异是显著的,否则则认为差异不显著。
互作效应分析则是用于检测不同自变量之间的交互作用对因变量的影响。
简单来说,互作效应是指两个或多个自变量之间的相互作用造成的差异。
通常,研究者会通过建立线性回归模型或方差分析模型来评估这种交互作用。
在这个模型中,自变量之间的相互作用效应就是我们所关注的互作效应。
如果互作效应是显著的,那么我们可以得出结论,这些自变量之间存在相互作用,且对因变量的影响不是简单相加的。
如果互作效应不显著,那么我们可以认为这些自变量之间的相互作用对因变量没有显著的影响。
显著性和互作效应分析在实验设计中都起着重要的作用。
在研究设计阶段,显著性分析可以帮助研究者选择合适的样本量和统计检验方法,以确保实验结果的可靠性和可重复性。
而互作效应分析则可以帮助研究者理解变量之间的相互作用关系,更好地解释实验结果。
此外,在做出决策或提出建议时,显著性分析和互作效应分析也能为研究者提供重要的科学依据。
总之,显著性和互作效应分析是统计学和实验设计中常用的两个重要概念。
显著性分析用于确定差异是否具有统计学意义,而互作效应分析则用于检测变量之间的相互作用效应。
这两种分析方法都能够为研究者提供有力的统计依据,以支持科学研究的可靠性和真实性。
数据间的显著性分析

数据间的显著性分析数据间的显著性分析一直以来都是统计学中非常重要的研究领域之一。
通过分析数据之间的关系,我们可以揭示出其中的规律和差异,从而为相关领域的决策提供有力的支持。
本文将围绕数据间的显著性分析展开讨论,并从方法、应用和局限性等方面进行探讨,以期为读者提供一个全面的了解。
数据间的显著性分析可以从多个角度进行,例如对比两组数据、多组数据的均值差异、探究因素对数据的影响等。
常用的分析方法包括假设检验、方差分析、回归分析等。
假设检验是数据间显著性分析中最常见的方法之一。
它基于一个假设:无论结果如何,两个或多个数据集在总体上是相同的。
然后,我们利用样本数据来检验这个假设,并评估结果的显著性。
假设检验通常涉及确定一个适当的统计指标,例如t值、Z值或F值。
通过比较计算结果和事先设定的阈值,我们可以得出结论,判断数据之间的差异是否是统计上显著的。
方差分析是一种适用于多组数据间显著性分析的方法。
与假设检验类似,方差分析也是建立在一个假设基础上,即所有数据集的均值是相等的。
通过计算组内和组间的方差差异,我们可以评估组间差异是否统计上显著。
方差分析适用于实验研究中的多组数据比较,可以帮助我们分析不同处理条件对数据的影响。
回归分析是一种常用的数据间显著性分析方法。
回归分析可以用来探究因变量和自变量之间的关系,并通过计算回归系数和相关性来评估两者之间的显著性。
回归分析可以帮助我们预测和解释数据的变化,尤其在探究多个因素对数据的影响时非常有用。
除了以上提到的方法,数据间的显著性分析还可以涉及到其他领域,例如生物信息学、金融、市场营销等。
通过分析基因组数据或金融市场数据,我们可以揭示出隐藏在数据中的规律,为相关领域的决策提供有力的支持。
然而,数据间的显著性分析也存在一些局限性。
首先,我们需要清楚地定义数据间的关系,才能选择合适的分析方法。
其次,分析方法本身也有一定的局限性,例如假设检验只能告诉我们是否存在显著差异,却无法解释其原因。
统计显著性与效果量分析

统计显著性与效果量分析统计显著性和效果量分析是研究领域中常用的统计方法,用于评估研究结果的可靠性和实际影响力。
本文将介绍统计显著性和效果量分析的概念、原理以及在科学研究中的应用。
统计显著性分析统计显著性分析是通过对研究数据进行统计推断,判断样本数据与总体数据之间是否存在显著差异。
在科学研究中,通常使用假设检验方法进行统计显著性分析。
在假设检验中,研究者需要提出一个原假设(nullhypothesis)和一个备择假设(alternativehypothesis)。
原假设通常是认为两组数据没有差异或没有关联,备择假设则相反,认为数据之间存在差异或关联。
通过计算样本数据与原假设之间的偏差程度,可以得出一个统计值。
然后,通过设定一个显著性水平(significancelevel),比如0.05,来确定拒绝原假设的临界值。
如果计算得到的统计值小于临界值,就可以拒绝原假设,认为数据之间存在显著差异。
然而,统计显著性并不代表实际上的显著影响。
它只能告诉我们有没有差异存在,但不能告诉我们差异的程度和实际影响。
效果量分析效果量分析是用来衡量研究结果的实际影响大小的统计方法。
它能够帮助研究者更全面地理解研究发现,而不仅仅关注统计显著性。
常用的效果量指标包括Cohen’sd、r、η²等。
Cohen’sd衡量两组数据之间的差异程度,r衡量两个变量之间的关联程度,η²则是针对方差分析等多组数据进行效果量分析的指标。
效果量的计算通常需要样本大小、均值和标准差等统计参数。
通过对效果量的计算和解释,研究者可以更好地了解研究结果的实际影响,提供更准确的科学解释和决策依据。
统计显著性与效果量分析的应用统计显著性和效果量分析在科学研究中具有广泛的应用。
它们可以用于比较不同组别或条件下的数据差异,验证研究假设或研究问题的解答。
以医学研究为例,通过进行统计显著性和效果量分析,医生可以判断某种新药物与安慰剂之间是否存在显著差异,同时还可以评估新药物对病情的实际疗效。
显著性和互作效应分析

显著性和互作效应分析显著性分析和互作效应分析是统计学中的两个重要方法,用于研究实验结果之间的关系和差异。
本文将详细介绍这两个分析方法,并讨论它们在实际研究中的应用。
首先,我们来了解一下显著性分析。
显著性分析是一种用于确定实验结果是否具有统计学意义的方法。
当我们进行实验时,我们通常会收集一些数据,并进行统计分析来检验我们的假设是否成立。
显著性分析的目的就是根据收集到的数据,判断得到的结果是否有足够的实证证据来支持或反驳我们的假设。
在显著性分析中,我们通常会使用一种被称为p值的指标来确定结果的显著性。
p值是指在假设条件下,观察到的结果或更极端情况出现的概率。
一般来说,当p值小于0.05时,我们称结果具有显著性,即存在统计学意义。
但需要注意的是,显著性并不意味着结果具有重要性或实用性,而仅仅表示结果存在差异。
互作效应分析是一种用于研究变量之间交互作用的方法。
在一些实验研究中,我们不仅关注各个因素的独立影响,还想了解各个因素之间如何相互作用,即产生互作效应。
互作效应分析可以帮助我们判断是否存在相互作用,并了解这种互作效应对结果的影响程度。
通过进行互作效应分析,我们可以得到各个因素的主效应和交互效应的值,并可以根据这些结果来做出更准确的解释和预测。
同时,互作效应分析也可以帮助我们确定哪些变量对结果的影响是重要的,从而更好地指导我们进一步的实验设计。
显著性分析和互作效应分析在很多研究领域都有广泛的应用。
例如,在医学研究中,我们可以通过这两种方法来研究新药的疗效和副作用,以及不同患者群体对药物的反应差异。
在社会科学研究中,我们可以使用这些方法来研究人们的行为和态度,并了解不同因素对人们的影响。
总之,显著性分析和互作效应分析是统计学中两个重要的方法,用于判断结果的显著性和研究变量之间的交互作用。
这两种方法的应用可以帮助我们更好地理解实验结果,并为进一步的研究提供指导。
在实际应用中,我们需要根据具体的研究目的和问题选择适当的方法,并结合其他统计学技术进行综合分析。
显著性和互作效应分析报告

单因素方差分析单因素方差分析也称作一维方差分析。
它检验由单一因素影响的一个(或几个相互独立的)因变量由因素各水平分组的均值之间的差异是否具有统计意义。
还可以对该因素的若干水平分组中哪一组与其他各组均值间具有显著性差异进行分析,即进行均值的多重比较。
One-Way ANOVA过程要求因变量属于正态分布总体。
如果因变量的分布明显的是非正态,不能使用该过程,而应该使用非参数分析过程。
如果几个因变量之间彼此不独立,应该用Repeated Measure过程。
[例子]调查不同水稻品种百丛中稻纵卷叶螟幼虫的数量,数据如表5-1所示。
表5-1 不同水稻品种百丛中稻纵卷叶螟幼虫数从复水稻品种1 2 3 4 51 41 33 38 37 312 39 37 35 39 343 40 35 35 38 34 数据保存在“DATA5-1.SAV”文件中,变量格式如图5-1。
图5-1分析水稻品种对稻纵卷叶螟幼虫抗虫性是否存在显著性差异。
1)准备分析数据在数据编辑窗口中输入数据。
建立因变量“幼虫”和因素水平变量“品种”,然后输入对应的数值,如图5-1所示。
或者打开已存在的数据文件“DATA5-1.SAV”。
2)启动分析过程点击主菜单“Analyze”项,在下拉菜单中点击“Compare Means”项,在右拉式菜单中点击“0ne-Way ANOVA”项,系统打开单因素方差分析设置窗口如图5-2。
图5-2 单因素方差分析窗口3)设置分析变量因变量:选择一个或多个因子变量进入“Dependent List”框中。
本例选择“幼虫”。
因素变量:选择一个因素变量进入“Factor”框中。
本例选择“品种”。
4)设置多项式比较单击“Contrasts”按钮,将打开如图5-3所示的对话框。
该对话框用于设置均值的多项式比较。
图5-3 “Contrasts”对话框定义多项式的步骤为:均值的多项式比较是包括两个或更多个均值的比较。
例如图5-3中显示的是要求计算“1.1×me an1-1×mean2”的值,检验的假设H0:第一组均值的1.1倍与第二组的均值相等。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
单因素方差分析单因素方差分析也称作一维方差分析。
它检验由单一因素影响的一个(或几个相互独立的)因变量由因素各水平分组的均值之间的差异是否具有统计意义。
还可以对该因素的若干水平分组中哪一组与其他各组均值间具有显著性差异进行分析,即进行均值的多重比较。
One-Way ANOVA过程要求因变量属于正态分布总体。
如果因变量的分布明显的是非正态,不能使用该过程,而应该使用非参数分析过程。
如果几个因变量之间彼此不独立,应该用Repeated Measure过程。
[例子]调查不同水稻品种百丛中稻纵卷叶螟幼虫的数量,数据如表5-1所示。
表5-1 不同水稻品种百丛中稻纵卷叶螟幼虫数数据保存在“DATA5-1.SAV”文件中,变量格式如图5-1。
图5-1分析水稻品种对稻纵卷叶螟幼虫抗虫性是否存在显著性差异。
1)准备分析数据在数据编辑窗口中输入数据。
建立因变量“幼虫”和因素水平变量“品种”,然后输入对应的数值,如图5-1所示。
或者打开已存在的数据文件“DATA5-1.SAV”。
2)启动分析过程点击主菜单“Analyze”项,在下拉菜单中点击“Compare Means”项,在右拉式菜单中点击“0ne-Way ANOVA”项,系统打开单因素方差分析设置窗口如图5-2。
图5-2 单因素方差分析窗口3)设置分析变量因变量:选择一个或多个因子变量进入“Dependent List”框中。
本例选择“幼虫”。
因素变量:选择一个因素变量进入“Factor”框中。
本例选择“品种”。
4)设置多项式比较单击“Contrasts”按钮,将打开如图5-3所示的对话框。
该对话框用于设置均值的多项式比较。
图5-3 “Contrasts”对话框定义多项式的步骤为:均值的多项式比较是包括两个或更多个均值的比较。
例如图5-3中显示的是要求计算“1.1×mean1-1×mean2”的值,检验的假设H0:第一组均值的1.1倍与第二组的均值相等。
单因素方差分析的“0ne-Way ANOVA”过程允许进行高达5次的均值多项式比较。
多项式的系数需要由读者自己根据研究的需要输入。
具体的操作步骤如下:①选中“Polynomial”复选项,该操作激活其右面的“Degree”参数框。
②单击Degree参数框右面的向下箭头展开阶次菜单,可以选择“Linear”线性、“Quadratic”二次、“Cubic”三次、“4th”四次、“5th”五次多项式。
③为多项式指定各组均值的系数。
方法是在“Coefficients”框中输入一个系数,单击Add按钮,“Coefficients”框中的系数进入下面的方框中。
依次输入各组均值的系数,在方形显示框中形成—列数值。
因素变量分为几组,输入几个系数,多出的无意义。
如果多项式中只包括第一组与第四组的均值的系数,必须把第二个、第三个系数输入为0值。
如果只包括第一组与第二组的均值,则只需要输入前两个系数,第三、四个系数可以不输入。
可以同时建立多个多项式。
一个多项式的一组系数输入结束,激话“Next”按钮,单击该按钮后“Coefficients”框中清空,准备接受下一组系数数据。
如果认为输入的几组系数中有错误,可以分别单击“Previous”或“Next”按钮前后翻找出错的一组数据。
单击出错的系数,该系数显示在编辑框中,可以在此进行修改,修改后单击“Change”按钮在系数显示框中出现正确的系数值。
当在系数显示框中选中一个系数时,同时激话“Remove”按钮,单击该按钮将选中的系数清除。
④单击“Previous”或“Next”按钮显示输入的各组系数检查无误后,按“Continue”按钮确认输入的系数并返回到主对话框。
要取消刚刚的输入,单击“Cancel”按钮;需要查看系统的帮助信息,单击“Help”按钮。
本例子不做多项式比较的选择,选择缺省值。
5)设置多重比较在主对话框里单击“Post Hoc”按钮,将打开如图5-4所示的多重比较对话框。
该对话框用于设置多重比较和配对比较。
方差分析一旦确定各组均值间存在差异显著,多重比较检测可以求出均值相等的组;配对比较可找出和其它组均值有差异的组,并输出显著性水平为0.95的均值比较矩阵,在矩阵中用星号表示有差异的组。
图5-4 “Post Hoc Multiple Comparisons”对话框(1)多重比较的选择项:①方差具有齐次性时(Equal Variances Assumed),该矩形框中有如下方法供选择:LSD (Least-significant difference) 最小显著差数法,用t检验完成各组均值间的配对比较。
对多重比较误差率不进行调整。
Bonferroni (LSDMOD) 用t检验完成各组间均值的配对比较,但通过设置每个检验的误差率来控制整个误差率。
Sidak 计算t统计量进行多重配对比较。
可以调整显著性水平,比Bofferroni 方法的界限要小。
Scheffe对所有可能的组合进行同步进入的配对比较。
这些选择项可以同时选择若干个。
以便比较各种均值比较方法的结果。
R-E-G-WF (Ryan-Einot-Gabriel-Welsch F) 用F检验进行多重比较检验。
R-E-G-WQ (Ryan-Einot-Gabriel-Welsch range test) 正态分布范围进行多重配对比较。
S-N-K (Student-Newmnan-Keuls) 用Student Range分布进行所有各组均值间的配对比较。
如果各组样本含量相等或者选择了“Harmonic average of all groups”即用所有各组样本含量的调和平均数进行样本量估计时还用逐步过程进行齐次子集(差异较小的子集)的均值配对比较。
在该比较过程中,各组均值从大到小按顺序排列,最先比较最末端的差异。
Tukey(Tukey's,honestly signicant difference) 用Student-Range统计量进行所有组间均值的配对比较,用所有配对比较误差率作为实验误差率。
Tukey's-b用“stndent Range”分布进行组间均值的配对比较。
其精确值为前两种检验相应值的平均值。
Duncan (Duncan's multiple range test) 新复极差法(SSR),指定一系列的“Range”值,逐步进行计算比较得出结论。
Hochberg's GT2用正态最大系数进行多重比较。
Gabriel用正态标准系数进行配对比较,在单元数较大时,这种方法较自由。
Waller-Dunca用t统计量进行多重比较检验,使用贝叶斯逼近。
Dunnett指定此选择项,进行各组与对照组的均值比较。
默认的对照组是最后一组。
选择了该项就激活下面的“ControlCategory”参数框。
展开下拉列表,可以重新选择对照组。
“Test”框中列出了三种区间分别为:∙“2-sides”双边检验;∙“<Control”左边检验“>Conbo1”“右边检验。
②方差不具有齐次性时(Equal Varance not assumed),检验各均数间是否有差异的方祛有四种可供选择:Tamhane's T2, t检验进行配对比较。
Dunnett's T3,采用基于学生氏最大模的成对比较法。
Games-Howell,Games-Howell比较,该方法较灵活。
Dunnett's C,采用基于学生氏极值的成对比较法。
③ Significance 选择项,各种检验的显著性概率临界值,默认值为0.05,可由用户重新设定。
本例选择“LSD”和“Duncan”比较,检验的显著性概率临界值0.05。
6) 设置输出统计量单击“Options”按钮,打开“Options”对话框,如图5-5所示。
选择要求输出的统计量。
并按要求的方式显示这些统计量。
在该对话框中还可以选择对缺失值的处理要求。
各组选择项的含义如下:图5-5输出统计量的设置“Statistics”栏中选择输出统计量:Descriptive,要求输出描述统计量。
选择此项输出观测量数目、均值、标准差、标准误、最小值、最大值、各组中每个因变量的95%置信区间。
Fixed and random effects, 固定和随机描述统计量Homogeneity-of-variance,要求进行方差齐次性检验,并输出检验结果。
用“Levene lest ”检验,即计算每个观测量与其组均值之差,然后对这些差值进行一维方差分析。
Brown-Forsythe 布朗检验Welch,韦尔奇检验Means plot,即均数分布图,根据各组均数描绘出因变量的分布情况。
“Missing Values”栏中,选择缺失值处理方法。
Exclude cases analysis by analysis选项,被选择参与分析的变量含缺失值的观测量,从分析中剔除。
Exclude cases listwise选项,对含有缺失值的观测量,从所有分析中剔除。
以上选择项选择完成后,按“Continue”按钮确认选择并返回上一级对话框;单击“Cancel”按钮作废本次选择;单击“Help”按钮,显示有关的帮助信息。
本例子选择要求输出描述统计量和进行方差齐次性检验,缺失值处理方法选系统缺省设置。
6)提交执行设置完成后,在单因素方差分析窗口框中点击“OK”按钮,SPSS就会根据设置进行运算,并将结算结果输出到SPSS结果输出窗口中。
7) 结果与分析输出结果:表5-2描述统计量,给出了水稻品种分组的样本含量N、平均数Mean、标准差Std.Deviation、标准误Std.Error、95%的置信区间、最小值和最大值。
表5-3为方差齐次性检验结果,从显著性慨率看,p>0.05,说明各组的方差在a=0.05水平上没有显著性差异,即方差具有齐次性。
这个结论在选择多重比较方法时作为一个条件。
表5-4方差分析表:第1栏是方差来源,包括组间变差“Between Groups”;组内变差“Within Groups”和总变差“Total”。
第2栏是离差平方和“Sum of Squares”,组间离差平方和87.600,组内离差平方和为24.000,总离差平方和为111.600,是组间离差平方和与组内离差平方和相加之和。
第3栏是自由度df,组间自由度为4,组内自由度为10;总自由度为14。
第4栏是均方“Mean Square”,是第2栏与第3栏之比;组间均方为21.900,组内均方为2.400。
第5栏是F值9.125(组间均方与组内均方之比)。
第6栏:F值对应的概率值,针对假设H0:组间均值无显著性差异(即5种品种虫数的平均值无显著性差异)。