统计学:多重线性回归与相关

合集下载

线性相关与回归(简单线性相关与回归、多重线性回归、Spearman等级相关)

线性相关与回归(简单线性相关与回归、多重线性回归、Spearman等级相关)

4.剔除强影响点(Influential cases;或称为突出点, outliers)
通过标准化残差(Standardized Residuals)、学生氏残 差(Studentlized Residuals)来判断强影响点 。当指标 的绝对值大于3时,可以认为样本存在强影响点。
删除强影响点应该慎重,需要结合专业知识。以下两种情 况可以考虑删除强影响点:1.强影响点是由于数据记录错 误造成的;2.强影响点来自不同的总体。
r r t sr 1 r2 n2
只有当0时,才能根据|r|的大小判断相关 的密切程度。
4.相关与回归的区别和联系 (1)相关与回归的意义不同 相关表达两个变量 之间相互关系的密切程度和方向。回归表达两个变 量之间的数量关系,已知X值可以预测Y值。从散点 图上,散点围绕回归直线的分布越密集,则两变量 相关系数越大;回归直线的斜率越大,则回归系数 越大。 (2)r与b的符号一致 同正同负。
5.自变量之间不应存在共线性(Collinear)
当一个(或几个)自变量可以由其他自变量线性表示时,称 该自变量与其他自变量间存在共线性关系。常见于:1.一个 变量是由其他变量派生出来的,如:BMI由身高和体重计算 得出 ;2.一个变量与其他变量存在很强的相关性。 当自变量之间存在共线性时,会使回归系数的估计不确定、 预测值的精度降低以及对y有影响的重要自变量不能选入模 型。
P值
截距a 回归系数b sb 标准化回归系数 t值 P值
3.直线回归的预测及置信区间估计
给定X=X0, 预测Y
3.直线回归的预测及置信区间估计
因变量
自变量
保存(产生新变量,保 存在当前数据库) 统计
3.直线回归的预测及置信区间估计

线性回归与相关分析

线性回归与相关分析

线性回归与相关分析一、引言线性回归和相关分析是统计学中常用的两种数据分析方法。

线性回归用于建立两个或多个变量之间的线性关系,而相关分析则用于衡量变量之间的相关性。

本文将介绍线性回归和相关分析的基本原理、应用场景和计算方法。

二、线性回归线性回归是一种建立自变量和因变量之间线性关系的统计模型。

它的基本思想是通过找到最佳拟合直线来描述自变量与因变量之间的关系。

线性回归模型可以表示为:Y = β0 + β1X + ε,其中Y表示因变量,X表示自变量,β0和β1分别表示截距和斜率,ε表示误差项。

线性回归的目标是最小化观测值与模型预测值之间的差异,常用的优化方法是最小二乘法。

线性回归的应用场景非常广泛。

例如,我们可以利用线性回归来分析广告费用和销售额之间的关系,或者分析学生学习时间和考试成绩之间的关系。

线性回归还可以用于预测未来趋势。

通过建立一个合适的线性回归模型,我们可以根据历史数据来预测未来的销售额或者股票价格。

在计算线性回归模型时,我们首先需要收集相关的数据。

然后,可以使用统计软件或者编程语言如Python、R等来计算最佳拟合直线的参数。

通过计算截距和斜率,我们可以得到一个最佳拟合线,用于描述自变量和因变量之间的关系。

此外,我们还可以借助评价指标如R 平方来衡量模型的拟合程度。

三、相关分析相关分析是一种用于衡量两个变量之间相关性的统计方法。

它可以帮助我们判断变量之间的线性关系的强度和方向。

相关系数是表示相关性的一个指标,常用的相关系数有皮尔逊相关系数和斯皮尔曼相关系数。

皮尔逊相关系数适用于测量两个连续变量之间的线性关系,其取值范围在-1到1之间。

当相关系数接近1时,表示两个变量呈正相关,即随着一个变量增加,另一个变量也增加。

当相关系数接近-1时,表示两个变量呈负相关,即随着一个变量增加,另一个变量减小。

当相关系数接近0时,表示两个变量之间没有线性关系。

斯皮尔曼相关系数适用于测量两个有序变量之间的单调关系,其取值范围也在-1到1之间。

回归分析与相关分析

回归分析与相关分析

回归分析与相关分析导言回归分析与相关分析是统计学中常用的两种分析方法,用于研究变量之间的关系。

在本文中,我们将对回归分析和相关分析进行详细探讨,并介绍它们的原理、应用和实例。

一、回归分析回归分析是通过建立一个数学模型来描述一个或多个自变量与因变量之间的关系。

它可以帮助我们预测因变量的取值,并理解自变量对因变量的影响程度。

1.1 简单线性回归简单线性回归是回归分析中最常见的一种方法,它假设自变量和因变量之间存在线性关系。

通过最小二乘法,我们可以得到最佳拟合直线,从而预测因变量的取值。

1.2 多元线性回归多元线性回归是对简单线性回归的拓展,它可以同时考虑多个自变量对因变量的影响。

通过最小二乘法,我们可以得到最佳的多元回归方程,从而预测因变量的取值。

1.3 逻辑回归逻辑回归是回归分析在分类问题上的一种应用。

它能够根据自变量的取值,预测因变量的类别。

逻辑回归常用于预测二分类问题,如预测一个学生是否会被大学录取。

二、相关分析相关分析是研究两个或多个变量之间相关关系的一种方法。

它可以帮助我们了解变量之间的关联程度,以及一个变量是否能够作为另一个变量的预测因子。

2.1 皮尔逊相关系数皮尔逊相关系数是一种衡量两个连续变量之间线性相关程度的统计量。

它的取值范围在-1到1之间,当相关系数接近1时,表示两个变量正相关;当相关系数接近-1时,表示两个变量负相关;当相关系数接近0时,表示两个变量无相关关系。

2.2 斯皮尔曼相关系数斯皮尔曼相关系数是一种衡量两个变量之间的非线性相关程度的统计量。

它的取值范围也在-1到1之间,但它适用于衡量非线性关系和顺序关系。

斯皮尔曼相关系数广泛应用于心理学和社会科学领域。

应用实例为了更好地理解回归分析与相关分析的应用,让我们通过一个实际案例来说明。

假设我们想研究某个国家的人均GDP与教育水平之间的关系。

我们收集了10个州的数据,包括每个州的人均GDP和受教育程度指数。

我们可以利用回归分析来建立一个数学模型,从而预测人均GDP与受教育水平之间的关系。

《医学统计学》之多元(重)线性回归

《医学统计学》之多元(重)线性回归

多元(重)线性回归模型的假设
1 线性关系
假设自变量与因变量之间存在线性关系,即因变量可以用自变量的线性组合来表示。
2 独立性
假设误差项之间相互独立,即每个观测值的误差项不受其他观测值的影响。
3 常数方差
假设误差项具有常数方差,即各个观测值的误差方差相同。
多元(重)线性回归模型的估计方法
最小二乘法
多元(重)线性回归模型的模型选择方法
前向选择法
从不包含自变量的空模型开 始,逐步添加自变量,选择 最佳的组合。
后向消除法
从包含所有自变量的全模型 开始,逐步删除自变量,选 择最简单且最有效的模型。
逐步回归法
结合前向选择法和后向消除 法,逐步调整自变量,找到 最优的模型。
多元(重)线性回归模型的实际应用
医学研究
用于分析多个影响因素对疾病发生、病程进展和治 疗效果的影响。
市场分析
用于预测市场需求和销售量,并确定最佳的市场推 广策略。
财务预测
社会科学
用于预测企业的财务状况,并制定相应的经营决策。
用于研究社会现象和群体行为,解释和预测社会现 象的变化。
通过方差膨胀因子等指标,判断自变量之间是否存在高度相关性,以避免估计结果的不 准确性。
多元(重)线性回归模型的模型检验
1
残差分析
通过观察残差的分布和模式,检验回归模型是否符合基本假设。
2
拟合优度检验
通过比较拟合优度指标(如决定系数R²)和假设分布,评估回归模型的拟合程度。
3
异常值检验
通过检测异常值对回归分析结果的影响,判断数据中是否存在异常观测值。
《医学统计学》之多元 (重)线性回归
在医学统计学中,多元(重)线性回归是一种强大的数据分析方法,可用于探索 和建立多个自变量与因变量之间的关系。

12章多重线性回归与相关

12章多重线性回归与相关

一、自变量筛选的标准与原则
2.残差均方缩小与调整决定系数增大 MS残=SS残/(n-p-1) MS残缩小的准则可以看做是在SS残缩小准则的基础上 增加了(n-p-1)-1因子,该因子随模型中自变量个数 p的增加而增加,体现了对模型中自变量个数增加而 施加的“惩罚”。 调整决定系数Ra2越大越好,与MS残等价。
包含汽车流量、气温、气湿与风速这四个自变量的回
归方程可解释交通点空气NO浓度变异性的78.74%
2.复相关系数R (multiple correlation coefficient)
定义为确定系数的算术平方根,
R SS回 SS总
表示变量Y与k个自变量的线性相关的密切程度。 对本例R=0.8837,表示交通点空气NO浓度与汽车流量、
表12-5 空气中NO浓度与各自变量的相关系数与偏相关系数
自变量 车流X1 相关系数 0.80800 偏相关系数 0.6920 偏相关系数P值 0.0005
气温X2
气湿X3 风速X4
0.1724
0.2754 -0.67957
0.47670
-0.00218 -0.59275
0.0289
0.9925 0.0046
第十二章
第一节 第二节 第三节 第四节
多重线性回归与相关
多重线性回归的概念与统计描述 多重线性回归的假设检验 复相关系数与偏相关系数 自变量筛选
一、整体回归效应的假设检验(方差分析)
表12-2 检验回归方程整体意义的方差分析表
变异来源 回归模型
残差 总变异
SS
0.0639 6 0.0172 7 0.0812 3
风速
(X4) 2.00 2.40 3.00 1.00 2.80 1.45 1.50 1.50 0.90 0.65 1.83 2.00

统计学中的相关性和回归分析

统计学中的相关性和回归分析

统计学中的相关性和回归分析统计学中,相关性和回归分析是两个重要的概念和方法。

它们旨在揭示变量之间的关系,并可以用来预测和解释观察结果。

本文将介绍相关性和回归分析的基本原理、应用及其在实践中的意义。

一、相关性分析相关性是指一组变量之间的关联程度。

相关性分析可以帮助我们理解变量之间的关系,以及这种关系的强度和方向。

常用的相关性指标有皮尔逊相关系数、斯皮尔曼相关系数和判定系数等。

皮尔逊相关系数是最常见的衡量变量之间线性关系的指标。

它的取值范围在-1到1之间,其中-1表示完全负相关,1表示完全正相关,0表示无相关。

例如,在研究身高和体重之间的关系时,如果相关系数为0.8,则说明身高和体重呈现较强的正相关。

斯皮尔曼相关系数则不要求变量呈现线性关系,而是通过对变量的序列进行排序,从而找到它们之间的关联程度。

它的取值也在-1到1之间,含义与皮尔逊相关系数类似。

判定系数是用于衡量回归模型的拟合程度的指标。

它表示被解释变量的方差中可由回归模型解释的部分所占的比例。

判定系数的取值范围在0到1之间,越接近1表示模型对数据的拟合越好。

二、回归分析回归分析是一种用于建立变量之间关系的统计方法。

它通过建立一个数学模型来解释和预测依赖变量和自变量之间的关系。

回归模型可以是线性的,也可以是非线性的。

线性回归是最常见的回归分析方法之一。

它假设自变量和因变量之间存在着线性关系,并通过最小二乘法来估计模型中的参数。

线性回归模型通常表示为y = β0 + β1x1 + β2x2 + ... + βnxn,其中y为因变量,x1、x2等为自变量,β0、β1等为模型的参数。

非线性回归则适用于自变量和因变量之间存在非线性关系的情况。

非线性回归模型可以是多项式回归、指数回归、对数回归等。

回归分析在实践中有广泛的应用。

例如,在市场营销中,回归分析可以用来预测销售量与广告投入之间的关系;在医学研究中,回归分析可以用来探究疾病发展与遗传因素之间的联系。

相关系数与回归系数的区别与联系

相关系数与回归系数的区别与联系一、引言在统计学中,相关系数与回归系数是两个非常重要的概念。

相关系数(r)是用来衡量两个变量之间线性关系强度的指标,而回归系数(β)则是用来表示自变量对因变量影响的程度。

尽管两者都与线性关系有关,但在实际应用中,它们有着明显的区别。

本文将阐述这两者的概念、计算方法以及它们在统计分析中的联系与区别。

二、相关系数的定义与计算1.相关系数的定义相关系数(r)是一个介于-1和1之间的数值,它反映了两个变量之间线性关系的强度和方向。

相关系数的绝对值越接近1,表示两个变量之间的线性关系越强;接近0时,表示两个变量之间几乎不存在线性关系。

2.相关系数的计算方法相关系数的计算公式为:r = ∑((x_i-平均x)*(y_i-平均y)) / (√∑(x_i-平均x)^2 * ∑(y_i-平均y)^2) 其中,x_i和y_i分别为变量X和Y的第i个观测值,平均x和平均y分别为X和Y的平均值。

三、回归系数的定义与计算1.回归系数的定义回归系数(β)是指在线性回归分析中,自变量每变动一个单位时,因变量相应变动的量。

回归系数可用于预测因变量值,从而揭示自变量与因变量之间的线性关系。

2.回归系数的计算方法回归系数的计算公式为:β= ∑((x_i-平均x)*(y_i-平均y)) / ∑(x_i-平均x)^2其中,x_i和y_i分别为变量X和Y的第i个观测值,平均x和平均y分别为X和Y的平均值。

四、相关系数与回归系数的关系1.两者在统计分析中的作用相关系数和回归系数都是在统计分析中衡量线性关系的重要指标。

相关系数用于衡量两个变量之间的线性关系强度,而回归系数则用于确定自变量对因变量的影响程度。

2.两者在实际应用中的区别与联系在实际应用中,相关系数和回归系数往往相互关联。

例如,在进行线性回归分析时,回归系数β就是相关系数r在X轴上的投影。

而相关系数r则可以看作是回归系数β的平方。

因此,在实际分析中,我们可以通过相关系数来初步判断两个变量之间的线性关系,进而利用回归系数进行更为精确的预测。

线性回归与相关分析在统计学中的应用

线性回归与相关分析在统计学中的应用统计学是一门研究数据收集、分析和解释的学科,其中线性回归和相关分析是常用的分析方法之一。

线性回归是一种用于描述两个或多个变量之间关系的统计模型,而相关分析则衡量两个变量之间的相关性程度。

本文将探讨线性回归和相关分析在统计学中的应用。

一、线性回归分析在统计学中,线性回归分析是一种用于研究两个变量之间线性关系的方法。

线性回归的基本思想是根据已观察到的数据点,拟合出一个直线模型,使得观测值与模型预测值的差异最小化。

线性回归的应用非常广泛。

首先,它可以用于预测和预测分析。

通过使用线性回归模型,我们可以根据已知数据来预测未知数据的取值。

例如,我们可以根据房屋的面积、地理位置和其他因素,建立一个线性回归模型,从而预测房屋的价格。

其次,线性回归可用于找到变量之间的因果关系。

通过分析变量之间的线性关系,我们可以确定一个变量对另一个变量的影响程度。

这在社会科学研究中特别有用,例如经济学、社会学和心理学等领域。

最后,线性回归还可以用于模型评估。

我们可以使用线性回归模型来评估实验数据和观测数据之间的拟合度。

通过比较模型中的预测值与实际观测值,我们可以了解模型对数据的拟合程度,从而对模型的有效性进行评估。

二、相关分析相关分析是统计学中另一个常用的方法,用于衡量两个变量之间的相关性程度。

通过计算相关系数,我们可以了解两个变量之间的线性关系强弱。

相关分析最常用的是皮尔逊相关系数。

该系数取值范围为-1到1,其中1表示两个变量完全正相关,-1表示两个变量完全负相关,0表示两个变量之间没有线性相关关系。

相关分析在实际中有着广泛的应用。

首先,它可以用于研究市场和经济的相关性。

通过分析不同经济指标之间的相关性,我们可以了解它们之间的关联程度,从而作出相应的决策和预测。

其次,相关分析也可用于医学和生物学研究。

例如,研究人员可以分析某种疾病与环境因素之间的相关性,以便找到疾病的诱因和风险因素。

最后,相关分析还可以用于社会科学和心理学研究。

统计学 第 七 章 相关与回归分析

3. 利用所求的关系式,根据一个或几个变量 的取值来预测或控制另一个特定变量的取 值,并给出这种预测或控制的精确程度
(一)回归分析与相关分析的关系
回归分析与相关分析是研究现象 之间相互关系的两种基本方法。
区别:
1、相关分析研究两个变量之间相关的 方向和相关的密切程度。但是相关分析不 能指出两变量相互关系的具体形式,也无 法从一个变量的变化来推测另一个变量的 变化关系。
2、按研究变量多少分为单相关和 复相关
单相关即一元相关,亦称简单相 关,是指一个因变量与一个自变量 之间的依存关系。复相关又称多元 相关,是指一个因变量与两个或两 个以上自变量之间的复杂依存关系。
3、按相关形式分为线性相关和非 线性相关
从相关图上观察:观察的样本点的 分布近似表现为直线形式,即观察点近 似地分布于一直线的两边,则称此种相 关为直线相关或线性相关。如果这些样 本点近似地表现为一条曲线,则称这种 相关为曲线相关或非线性相关(curved relationship).
不确定性的统计关系 —相关关系
Y= f(X)+ε (ε为随机变量)
在这种关系中,变量之间的关系值 是随机的,当一个(或几个)变量的值 确定以后,另一变量的值虽然与它(们) 有关,但却不能完全确定。然而,它们
之间又遵循一定的统计规律。
相关关系的例子
▪ 商品的消费量(y)与居民收入(x)
之间的关系
▪ 商品销售额(y)与广告费支出(x)
▲相关系数只反映变量间的线性相关程度,不 能说明非线性相关关系。
▲相关系数不能确定变量的因果关系,也不能 说明相关关系具体接近于哪条直线。
例题1: 经验表明:商场利润额与 其销售额之间存在相关关系。下表为 某市12家百货公司的销售额与利润额 统计表,试计算其相关系数。

医学统计学多重线性回归分析

医学统计学多重线性回归分析多重线性回归分析是一种用于确定多个自变量与一个因变量之间关系的统计方法。

在医学研究中,多重线性回归可以用于探讨多个潜在因素对人体健康和疾病发生的影响。

在多重线性回归中,因变量是要被预测或解释的变量,而自变量是可以用来预测或解释因变量的变量。

医学研究中可能存在多个自变量,因为人体健康和疾病发生是受多个因素综合影响的。

多重线性回归分析可以帮助我们确定每个自变量对因变量的相对重要性,并估计它们的效应。

多重线性回归模型可以表示为:Y=β0+β1X1+β2X2+...+βnXn+ε其中,Y是因变量,X1,X2,...,Xn是自变量,β0,β1,β2,...,βn 是模型的回归系数,ε是误差项。

多重线性回归分析的目标是通过估计回归系数来确定自变量对因变量的影响。

回归系数表示自变量单位变化对因变量的影响程度。

通过检验回归系数的显著性,可以判断自变量是否对因变量有统计上显著的影响。

此外,回归系数的符号可以指示自变量与因变量之间的正向或负向关系。

多重线性回归分析的步骤如下:1.收集数据:收集包括因变量和自变量的数据,通常需要足够的样本量来保证结果的可靠性。

2.数据清洗:对数据进行初步的清洗和整理,包括处理缺失值、异常值和离群值等。

3.模型构建:根据研究目的和理论背景选择自变量,并构建多重线性回归模型。

4.模型估计:通过最小二乘法估计回归系数。

最小二乘法通过最小化观测值与模型预测值之间的差异来确定回归系数。

5.模型诊断:对模型进行诊断检验,包括检验残差的正态性、线性性、同方差性等。

如果模型不符合假设条件,需要进行适当的修正。

6.结果解释:通过回归系数的显著性和效应大小来解释结果,确定自变量的影响和重要性。

多重线性回归分析常用的统计指标包括回归系数、标准误、P值和决定系数。

回归系数表示自变量单位变化对因变量的平均影响。

标准误表示回归系数的估计精度。

P值表示回归系数是否统计显著,一般认为P值小于0.05为显著。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

性回归,是研究一个应变量与多个自变量间线性依存关系
数量变化规律的一种方法。
一、数据与模型
观察单位
应变量 y X1 X2
自变量 … Xk
1
2 … n
y1
y2 … yn
X11
X21 … Xn1
X12
X22 … Xn2

… … …
X1k
X2k … Xnk
假定y与x1,x2,,…,xk间存在线性关系,则y满足多重线性回归模型:
MODEL y=x1-x4 /PARTIAL STB; MODEL y=x1-x4 /SELECTION=STEPWISE ; RUN;
例13-1的回归SAS结果
Parameter Estimates
Parameter Variable DF Estimate
Standard Error
t for H0: Parameter=0 Prob > |t|
多重线性回归与相关
( multiple linear regression & correlation 要求: 1.掌握多重回归模型主要指标的统计意义 2.了解 偏相关系数的统计意义 3.会用SPSS过程建立多重线性回归模型 4.理解SAS多重线性回归程序 )
第一节 多重线性回归的概念及其统计描述
0.003
0.039 0.087 0.222 0.029
1844
1656 960 1496 1436
26.0
20.0 24.8 27.0 28.0
73
83 67 65 68
1.00
1.45 1.50 0.65 2.00
0.140
0.059 0.039 0.145 0.099
CORR; /*线性回归模型*/
INTERCEP X1 X2 X3 X4
1 1 1
-0.10.06916107 0.00002748 0.00190112 0.00069083 0.01081187
-2.048 4.227 2.364 -0.009 -3.208
0.0546 0.0005 0.0289 0.9925 0.0046

x x ( x )( x ) / n
j i j i
当 j i 时, lii ( xi x i ) ( xi ) / n l jy ( x j x j )( y y ) xjy ( b0 y (b1 x1 b2 x 2 bk x k )
786
1652 … 1436
26.5
23.0 … 28.0
64
84 … 68
1.50
0.40 … 2.00
0.001
0.170 … 0.099
例13-1的SAS程序
DATA a1;/*建立SAS数据集*/ INPUT x1-x4 y; DATALINES; 1300 786 20.0 26.5 80 64 0.45 1.50 0.066 0.001 1444 1652 23.0 23.0 57 84 0.50 0.40 0.076 0.170
b1l11 b2 l12 bk l1k l1 y b l b l b l l k 2k 2y 1 21 2 22 b1l k1 b2 l k 2 bk l kk l ky 其中 l ji lij ( j , i 1,2 k ) 当 j i 时, l ji ( x j x j )( xi x i )
y 0 1 X 1 2 X 2 k X k
1 ~ p 是偏回归系数(partialregression coefficien t) 0是常数项(const ant
term) 是随机误差,又称残差(residual ) ~ N (0, )
1 -0.000006552 1 -0.034685
回归方程:

y 0.14166 0.00011619 x1 0.00449 x2 0.00000655 x3 0.03468 x4
第二节
多重线性回归方程的假设检验
目的:考察回归方程是否符合资料特点
1.方差分析法
按最小二乘法(least squares method)估计原理,计算式中的各项偏回归系数的估计值bi

y b0 b1 X 1 b2 X 2 bk X k
二、回归参数的估计
1.计算基本统计量
x j xk
, xj
, x2 j
,
y
,
x y
j
2.建立正规方程组(normal equations)
一重线性回归是描述一个应变量与一个自变量间线性
依存的一种分析方法。但医学研究中,一种事物现象的数
量关系往往与多种事物现象的数量变化有关,如肺活量与 年龄、体重、胸围等有关。这些事物现象间的关系在应变 量的取值上可以是确定型的与概率型的;在几何上可以是 线性的,也可以是非线性的。多重线性回归是确定型的线
1756
1200 1200 1820 948
29.5
22.5 27.0 22.0 22.5
72
69 58 83 69
0.90
1.80 1.70 0.40 2.00
0.156
0.040 0.100 0.135 0.005
1754
1500 1476 1436 1440
30.0
21.8 27.0 28.0 21.5

2

2 xi

2
x )( y) / n
j
1 . 1
例13-1
为了研究空气中一氧化氮(NO)的浓度与汽车流量、气温、空气湿度和风速
的关系,测定数据如下:
空气中 NO 浓度与相关因素的检测数据 车流 x1 1300 1444 气温 x2 20.0 23.0 气湿 x3 80 57 风速 x4 0.45 0.50 一氧化氮 y 0.066 0.076
76
77 65 68 79
0.80
0.60 0.65 2.00 2.40
0.120
0.120 0.129 0.099 0.011
1084
1116 1536 1784 1060 ; PROC REG
28.5
35.0 23.0 23.3 26.0
59
92 57 83 58
3.00
2.80 1.50 0.90 1.83
相关文档
最新文档