CY非参数回归介绍

合集下载

非线性回归分析的入门知识

非线性回归分析的入门知识

非线性回归分析的入门知识在统计学和机器学习领域,回归分析是一种重要的数据分析方法,用于研究自变量和因变量之间的关系。

在实际问题中,很多情况下自变量和因变量之间的关系并不是简单的线性关系,而是呈现出一种复杂的非线性关系。

因此,非线性回归分析就应运而生,用于描述和预测这种非线性关系。

本文将介绍非线性回归分析的入门知识,包括非线性回归模型的基本概念、常见的非线性回归模型以及参数估计方法等内容。

一、非线性回归模型的基本概念在回归分析中,线性回归模型是最简单和最常用的模型之一,其数学表达式为:$$Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + ... + \beta_pX_p +\varepsilon$$其中,$Y$表示因变量,$X_1, X_2, ..., X_p$表示自变量,$\beta_0, \beta_1, \beta_2, ..., \beta_p$表示模型的参数,$\varepsilon$表示误差项。

线性回归模型的关键特点是因变量$Y$与自变量$X$之间呈线性关系。

而非线性回归模型则允许因变量$Y$与自变量$X$之间呈现非线性关系,其数学表达式可以是各种形式的非线性函数,例如指数函数、对数函数、多项式函数等。

一般来说,非线性回归模型可以表示为:$$Y = f(X, \beta) + \varepsilon$$其中,$f(X, \beta)$表示非线性函数,$\beta$表示模型的参数。

非线性回归模型的关键在于确定合适的非线性函数形式$f(X,\beta)$以及估计参数$\beta$。

二、常见的非线性回归模型1. 多项式回归模型多项式回归模型是一种简单且常见的非线性回归模型,其形式为: $$Y = \beta_0 + \beta_1X + \beta_2X^2 + ... + \beta_nX^n +\varepsilon$$其中,$X^2, X^3, ..., X^n$表示自变量$X$的高次项,$\beta_0, \beta_1, \beta_2, ..., \beta_n$表示模型的参数。

回归分析非线性回归

回归分析非线性回归

回归分析非线性回归回归分析是用于探究自变量和因变量之间关系的一种统计方法,在实际应用中,所研究的问题往往并不是简单地呈线性关系。

为了更准确地描述变量之间的复杂关系,我们需要使用非线性回归模型。

非线性回归指的是自变量与因变量之间的关系不是简单的线性关系,而是可以用其他非线性函数更好地拟合的情况。

这样的非线性函数可以是多项式函数、指数函数、对数函数等等。

非线性回归可以更好地反映实际问题的实际情况,并且通常能够提供更准确的预测结果。

在非线性回归分析中,我们需要确定非线性函数的形式以及确定函数中的参数。

对于确定非线性函数的形式,一般来说,可以通过观察数据的散点图、经验和理论分析来选择。

根据选择的非线性函数形式,我们可以使用最小二乘法等方法来确定函数中的参数。

以一个简单的例子来说明非线性回归的具体步骤。

假设我们想要研究一个人的年龄和体重之间的关系,我们可以选择一个二次多项式模型来描述这个关系。

我们的非线性回归模型可以写作:体重=β₀+β₁×年龄+β₂×年龄²+ε其中,体重是因变量,年龄是自变量,ε是误差项。

我们的目标是确定模型中的参数β₀、β₁和β₂的值,使得模型最好地拟合观察到的数据。

为了实现这个目标,我们可以使用最小二乘法来估计参数的值。

最小二乘法是一种常用的参数估计方法,它通过最小化观测值与模型预测值之间的离差平方和来确定参数的值。

通过最小二乘法估计出的参数值,可以用于建立非线性回归模型,从而对未来的数据进行预测。

除了使用最小二乘法估计参数值之外,我们还可以使用其他的优化算法如牛顿法或梯度下降法来估计参数的值。

这些方法的选择通常取决于模型形式的复杂程度、参数数量以及数据量等因素。

需要注意的是,非线性回归模型的参数估计和预测结果都受到初始值的选择和模型形式的选择的影响。

因此,在进行非线性回归分析时,我们需要注意选择合适的初始值和合适的模型形式,以获得更准确的结果。

在实际应用中,非线性回归可以用于多个领域,比如医学、经济学、工程学等。

非参数回归的介绍

非参数回归的介绍

非参数回归的介绍非参数回归是一种机器学习方法,用于建立数据之间的关系模型,而不依赖于预设模型的形式。

与传统的线性回归相比,非参数回归不对模型的形状施加任何限制,而是根据数据本身的分布情况来估计模型。

这使得非参数回归能够更好地适应各种类型的数据,包括非线性、非正态分布等等。

非参数回归的核心思想是基于样本数据的分布情况来估计目标函数。

传统的线性回归假设目标函数是线性的,并且通过最小二乘法来拟合数据和估计参数。

然而,这种假设可能无法满足真实世界中复杂的非线性关系,因此非参数回归通过灵活的模型拟合方法来解决这个问题。

在非参数回归中,我们通常使用核函数来逼近目标函数。

核函数是一个局部加权回归方法,它将目标函数估计为一些核函数在样本点附近的加权线性组合。

核函数的具体形式可以是高斯核、三角核、Epanechnikov核等。

这些核函数都有一个特点,即在样本点附近有较高的权重,而在样本点远离的地方权重则较低。

另一个非参数回归的优点是它不需要预先假设数据的分布。

线性回归通常假设数据是正态分布的,但在现实中往往无法满足这个假设。

非参数回归可以通过直接根据数据本身的分布情况进行估计,而不需要预设模型的形式。

这使得非参数回归更对真实数据的特点进行建模。

非参数回归还经常用于探索性数据分析和模型评估。

通过非参数回归,我们可以揭示变量之间的复杂关系,获得对目标函数的更深入的理解。

此外,在模型评估中,非参数回归可以用作基准模型,以便与其他模型进行比较和评估。

然而,非参数回归也存在一些局限性。

首先,非参数回归可能需要大量的计算资源,特别是对于大规模的数据集来说。

由于没有预设模型的形式,非参数回归需要在整个数据集上进行计算以估计模型参数,这在计算上是非常昂贵的。

此外,由于非参数回归没有对模型进行约束,可能容易出现过拟合问题。

为了解决这些问题,可以采取一些方法来提高非参数回归的性能。

一种方法是将非参数回归与其他技术结合使用,例如局部加权回归、岭回归等。

非参数回归分析

非参数回归分析

非参数回归分析非参数回归分析是一种无需对数据分布做出假设的统计方法,它通过学习数据的内在结构来建立模型。

与传统的参数回归分析相比,非参数回归分析更加灵活,适用于各种复杂的数据分布。

本文将介绍非参数回归分析的基本原理和应用场景,并通过实例来说明其实际应用。

一、非参数回归分析的原理非参数回归分析是通过将目标变量与自变量之间的关系建模为一个未知的、非线性的函数形式,并通过样本数据来估计这个函数。

与参数回归分析不同的是,非参数回归模型不需要表示目标变量与自变量之间的具体函数形式,而是通过样本数据来学习函数的结构和特征。

在非参数回归分析中,最常用的方法是核密度估计和局部加权回归。

核密度估计使用核函数对数据进行平滑处理,从而得到目标变量在不同自变量取值处的概率密度估计。

局部加权回归则是通过在拟合过程中给予靠近目标变量较近的样本点更大的权重,从而对目标变量与自变量之间的关系进行拟合。

二、非参数回归分析的应用场景1. 数据分布未知或复杂的情况下,非参数回归分析可以灵活地适应不同的数据分布,从而得到较为准确的模型。

2. 非线性关系的建模,非参数回归分析可以对目标变量与自变量之间的非线性关系进行拟合,从而获得更准确的预测结果。

3. 数据量较小或样本信息有限的情况下,非参数回归分析不需要对数据分布做出假设,并且可以通过样本数据来学习模型的结构,因此对数据量较小的情况下也具有一定的优势。

三、非参数回归分析的实际应用为了更好地理解非参数回归分析的实际应用,以下通过一个实例来说明。

假设我们有一组汽车销售数据,包括了汽车的价格和其对应的里程数。

我们希望通过这些数据预测汽车的价格与里程数之间的关系。

首先,我们可以使用核密度估计方法来估计汽车价格与里程数之间的概率密度关系。

通过对价格和里程数进行核密度估计,我们可以得到一个二维概率密度图,显示了不同价格和里程数组合的概率密度。

接下来,我们可以使用局部加权回归方法来拟合汽车价格与里程数之间的关系。

数据建模—非线性回归

数据建模—非线性回归

数据建模—非线性回归
什么是非线性回归
一般线性回归假设因变量与自变量呈线性关系,但现实中有很
多问题并非是线性相关的。

而非线性回归可以用来拟合非线性关系。

非线性模型示例
下面以一些示例来介绍非线性回归:
1. 多项式回归
多项式回归就是一种非线性回归,它将线性模型中的自变量的
各次幂作为回归系数,即将 $y=a_0+a_1x+a_2x^2+...+a_nx^n$ 作为
模型进行回归。

这种方法适用于自变量$x$与因变量$y$之间的关系
大致呈多项式分布。

2. 对数函数回归
对数函数回归是一类将对数函数作为函数形式的非线性回归方法,它们适用于特定类型的数据。

如指数增长、充分增长、衰减等类型的数据。

3. Sigmoid函数回归
Sigmoid函数(S型函数)经常用于二分类问题,由于其形状为S型,经过合适的处理可以用来拟合非线性关系。

Sigmoid函数的形式为: $y=\frac{1}{1+e^{-ax+b}}$
非线性回归方法
与线性回归不同,非线性模型中的回归系数无法直接求解,需要使用非线性优化算法对其进行拟合。

非线性优化算法有很多种,常见的有:梯度下降法、拟牛顿法、Levenberg-Marquardt算法等。

总结
非线性回归适用于许多实际问题,可以通过多项式回归、对数函数回归、Sigmoid函数回归等方法进行建模。

然后,我们可以使用非线性优化算法对模型进行优化拟合以得到最优参数。

《非线性回归》课件

《非线性回归》课件

灵活性高
非线性回归模型形式多样,可以根据 实际数据和问题选择合适的模型,能 够更好地适应数据变化。
解释性强
非线性回归模型可以提供直观和易于 理解的解释结果,有助于更好地理解 数据和现象。
预测准确
非线性回归模型在某些情况下可以提 供更准确的预测结果,尤其是在数据 存在非线性关系的情况下。
缺点
模型选择主观性
势。
政策制定依据
政府和决策者可以利用非线性回归模型来评估不同政策方案的影响,从而制定更符合实 际情况的政策。例如,通过分析税收政策和经济增长之间的关系,可以制定更合理的税
收政策。
生物学领域
生态学研究
在生态学研究中,非线性回归模型被广 泛应用于分析物种数量变化、种群动态 和生态系统稳定性等方面。通过建立非 线性回归模型,可以揭示生态系统中物 种之间的相互作用和环境因素对种群变 化的影响。
模型诊断与检验
诊断图
通过绘制诊断图,可以直观地观察模型是否满足回归分析的假设条件,如线性关系、误差同方差性等 。
显著性检验
通过显著性检验,如F检验、t检验等,可以检验模型中各个参数的显著性水平,从而判断模型是否具 有统计意义。
04
非线性回归在实践中的应用
经济学领域
描述经济现象
非线性回归模型可以用来描述和解释经济现象,例如消费行为、投资回报、经济增长等 。通过建立非线性回归模型,可以分析影响经济指标的各种因素,并预测未来的发展趋
VS
生物医学研究
在生物医学研究中,非线性回归模型被用 于分析药物疗效、疾病传播和生理过程等 方面。例如,通过分析药物浓度与治疗效 果之间的关系,可以制定更有效的治疗方 案。
医学领域
流行病学研究
在流行病学研究中,非线性回归模型被用于 分析疾病发病率和死亡率与各种因素之间的 关系。通过建立非线性回归模型,可以揭示 环境因素、生活方式和遗传因素对健康的影 响。

非参数回归方法

非参数回归方法

非参数回归方法非参数回归是一种灵活的建模技术,它不依赖于对数据分布的假设,因此适用于各种类型的数据分析问题。

本文将介绍非参数回归的基本原理和常用方法,包括局部线性回归、核回归和样条回归等。

1. 非参数回归的基本原理非参数回归可以看作是对自变量与因变量之间的关系进行拟合的过程,而不需要对关系的具体形式进行假设。

与参数回归不同,非参数回归方法不直接对某个函数形式进行建模,而是通过对数据进行适当的拟合,从中获取自变量与因变量之间的关系。

2. 局部线性回归局部线性回归是一种常用的非参数回归方法,它假设在自变量附近的小区域内,自变量与因变量之间的关系可以近似为线性关系。

具体而言,局部线性回归通过在每个数据点附近拟合一个线性模型来进行预测。

这种方法可以有效地捕捉到数据的非线性关系。

3. 核回归核回归是另一种常见的非参数回归方法,它利用核函数对自变量进行加权来进行拟合。

核函数通常具有类似正态分布的形状,在自变量附近的数据点被赋予更大的权重,而离自变量远的数据点则被赋予较小的权重。

核回归可以灵活地适应不同的数据分布和关系形式。

4. 样条回归样条回归是一种基于样条函数的非参数回归方法,它将自变量的取值范围划分为若干个区间,并在每个区间内拟合一个多项式函数。

样条函数的拟合可以采用不同的方法,例如样条插值和样条平滑等。

样条回归能够更精确地捕捉到数据中的非线性关系。

5. 非参数回归的优势和应用领域与参数回归相比,非参数回归具有更高的灵活性和鲁棒性。

非参数回归方法不依赖于对数据分布和关系形式的假设,适用于各种类型的数据分析问题。

非参数回归广泛应用于经济学、统计学、金融学等领域,用于探索变量之间的关系、预测未知观测值等。

结论非参数回归方法是一种适用于各种类型数据分析问题的灵活建模技术。

本文介绍了非参数回归的基本原理和常用方法,包括局部线性回归、核回归和样条回归等。

非参数回归方法能够更准确地捕捉数据中的非线性关系,具有更高的适应性和鲁棒性。

数据预测—非线性回归

数据预测—非线性回归

数据预测—非线性回归非线性回归是一种在数据预测中常用的方法,它适用于无法通过线性关系来准确预测的场景。

通过寻找非线性模型中的最佳拟合曲线,非线性回归可以帮助我们预测未来的数据趋势。

什么是非线性回归回归分析是一种统计方法,用于确定自变量与因变量之间的关系。

线性回归假设自变量与因变量之间存在线性关系,但在某些情况下,真实的关系可能是非线性的。

这时,我们就需要使用非线性回归来更准确地建立模型。

非线性回归用曲线来描述自变量与因变量的关系,常见的非线性模型包括指数模型、多项式模型、对数模型等。

通过调整非线性模型的参数,我们可以找到最佳的拟合曲线,从而预测未来的数据。

如何进行非线性回归进行非线性回归的一般步骤如下:1. 收集数据:首先,我们需要收集自变量与因变量之间的样本数据。

2. 选择合适的模型:根据数据的特点,选择适合的非线性模型来描述自变量与因变量之间的关系。

3. 参数估计:使用统计方法,估计非线性模型中的参数值,找到最佳的拟合曲线。

4. 模型评估:通过评估模型的拟合程度,确定模型的可靠性和预测能力。

5. 预测未来数据:使用已建立的非线性模型,预测未来的数据趋势。

非线性回归的优势和应用非线性回归相比线性回归具有以下优势:- 更准确的预测能力:非线性回归可以更好地拟合真实的数据模式,提供更准确的预测结果。

- 更强的灵活性:非线性回归可以适应各种复杂的数据模式和关系,允许我们探索更多的可能性。

非线性回归在各个领域都有广泛的应用,例如金融、医学、经济学等。

在金融领域,非线性回归可以用于股票价格预测和风险评估;在医学领域,非线性回归可以用于疾病发展趋势预测和药物效果评估。

总结非线性回归是一种在数据预测中常用的方法,适用于无法通过线性关系进行准确预测的场景。

通过寻找非线性模型中的最佳拟合曲线,非线性回归可以帮助我们更准确地预测未来的数据趋势。

非线性回归具有更准确的预测能力和更强的灵活性,在各个领域都有广泛的应用。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

非参数回归简介一、参数回归与非参数回归的特点无论是线性回归还是非线性回归,其回归函数形式都是已知的,只是其中参数待定,所以可称为参数回归。

参数回归的最大优点是回归结果可以外延,但其缺点也不可忽视,就是回归形式一旦固定,就比较呆板,往往拟合效果较差。

另一类回归,非参数回归,则与参数回归正好相反。

它的回归函数形式是不确定的,其结果外延困难,但拟合效果却比较好。

参数回归与非参数回归的优缺点比较:参数回归:优点: (1).模型形式简单明确,仅由一些参数表达(eg: y=a+bx+e, a,b为待估参数)(2).在经济中,模型的参数一般都具有明确的经济含义(3).当模型参数假设成立,统计推断的精度较高,能经受实际检验(4).模型能够进行外推运算(5).模型可以用于小样本的统计推断缺点: (1).回归函数的形式预先假定(2).模型限制较多:一般要求样本满足某种分布要求,随机误差满足正态假设,解释变量间独立,解释变量与随机误差不相关,等(3).需要对模型的参数进行严格的检验推断,步骤较多(4).模型泛化能力弱,缺乏稳健性,当模型假设不成立,拟合效果不好,需要修正或者甚至更换模型非参数回归:优点; (1).回归函数形式自由,受约束少,对数据的分布一般不做任何要求(2).适应能力强,稳健性高,回归模型完全由数据驱动(3).模型的精度高(4).对于非线性、非齐次问题,有非常好的效果缺点: (1).不能进行外推运算 (2).估计的收敛速度慢(3).一般只有在大样本的情况下才能得到很好的效果,而小样本的效果较差(4).高维诅咒, 光滑参数的选取一般较复杂二、非参数回归的方法简介非参数回归方法样条光滑正交回归核回归:N-W估计、P-C估计、G-M估计局部多项式回归:线性、多项式光滑样条:光滑样条、B样条近邻回归:k-NN、k近邻核、对称近邻正交级数光滑局部回归Fourier级数光滑wavelet光滑处理高维的非参数方法:多元局部回归、薄片样条、可加模型、投影寻踪、回归树、张量积等。

●回归模型:设Y 为被解释变量,X 为解释变量,当X 为d 维随机变量时,1(,)d X Y R +∈,(,)i i X Y 为(,)X Y 的相互独立观测样本。

非参数回归模型如下:(1) 其中i e 为相互独立同分布随机变量,满足期望0i Ee =,方差2()i Var e σ=。

()i m X 是未知的函数,目标是要把()i m X 估计出来。

易知,()()E Y X x m x ==。

●权函数方法非参数回归的基本方法有核函数法,最近邻函数法,局部多项式方法、样条函数法,小波函数法。

这些方法尽管起源不一样,数学形式相距甚远,但都可以视为关于Y i 的线性组合的某种权函数。

也就是说,回归函数()m x 的估计ˆ()mx 总可以表为下述形式: 1ˆ()()ni i i mx W x Y ==∑ (2)其中{W i (X )}称为权函数。

这个表达式表明,ˆ()mx 总是Y i 的线性组合,一个Y i 对应一个W i 。

不过W i 与X i 倒没有对应关系,W i 如何生成,也许不仅与X i 有关,而且可能与全体的{X i }或部分的{X i }有关,要视具体函数而定,所以W i (X )写得更细一点应该是W i (x ;X 1,…,X n )。

这个权函数形式实际也包括了线性回归。

如果i i i X Y εβ+'=,则1ˆ()i ii X X X X X Y β-''''=,也是Y i 的线性组合。

在一般实际问题中,权函数都满足下述条件:(),1,2,,i i i Y m X e i n =+=111(;,,)0,(;,,)1ni n i n i W x X X W x X X =≥=∑(3)下面我们结合具体回归函数看权函数的具体形式。

1.核函数法(N-W 估计)选定R d 空间上的核函数K ,一般取概率密度。

令11(;,,)/n i i i n i n n X x X x W x X X K K h h =⎛⎫⎛⎫--= ⎪ ⎪⎝⎭⎝⎭∑(4)显然∑==ni i W 11。

此时回归函数就是111ˆˆ()()i n nn N W n ni i i n i i i i n X x K h Ym x W x Y Y X x K h -===⎛⎫- ⎪⎝⎭===⎛⎫- ⎪⎝⎭∑∑∑ (5)核函数估计的基本性质:定理1.设模型(1)中的()m x 的N-W 核函数估计为(2)式,且满足以下条件: (A1)()K u du <+∞⎰(A2) lim ()0uuK u →∞= (A3) 2EY <+∞(A4) ,0,n n n h nh →∞→→∞则对每一()m x ,()f x ,2(|)()Var Y X x x σ==的连续点,以及()0X f x >,有1ˆ()()()nP N Wnii n i Wx Y m x m x -==−−→∑2.k 近邻权函数估计k 近邻权估计不同于核估计的构建,核估计是在x 某固定邻域内所对应的解释变量的局部加权平均,估计的好坏主要在于核函数及光滑参数的选取。

由核估计的定义知道,核估计的边界点的偏差将大于内点处的偏差。

也就是说,核估计存在边界效应问题。

而k 近邻权估计是用最靠近x 的k 个观察值所对应的k 个解释变量的加权平均值。

由核函数的选择不同,分为k 近邻均匀权估计与k 近邻核权估计。

非参数模型(1)的k 近邻均匀权估计为1(,)()nn ni i i m x k W x Y ==∑其中1()0,xkni i J W x k⎧∈⎪=⎨⎪⎩,其他令1k n <<,为正整数,{:}xk i J i X x k =为离最近的个观测值之一.k 显然决定了权的大小及参加平均的i Y 的多少,k 实际上类似于N-W 估计中的光滑参数n h ,k 较大时,会提高k 近邻均匀权估计的光滑度。

3.局部多项式估计局部多项式估计使用局部广义最小二乘的思想,依靠局部多项式逼近i Y .设()m x 在X t =处的1p +阶导数存在,x 为t 邻域内的任一点,则()m x 的Taylor 展开式为()()()()()()()!p p m t m x m t m t x t x t p '≈+-++- (6)因此,可以视()(),(),,()p m t m t m t ' 为待估参数,令()!(0,1,)j j m t j j p β== ,则(6)式可写为01()()()p i p i m x X t X t βββ≈+-++- (7)这里11(,),,(,)n n X Y X Y 为(,)X Y 的观测样本。

1201(,,,),(,,)T T n n Y Y Y Y ββββ== 。

由WLSE 解上式得1ˆ()X WX X WY β-''=01ˆˆˆˆ(,,,)T p ββββ= .于是在(6),(7)中: ()0ˆˆˆˆ(),()!j jm t m t j ββ== 当t 取遍X 的样本点时,可以得到整个曲线的估计ˆ()LPEnp m 。

LPE 估计的主要优点为:可以同时用于当X 为随机或者固定设计的形式,并同时给出()m 所有r 阶()r m 的估计ˆ()r m。

更重要的是不必修正边界。

不难发现,N-W 回归估计(*)是(7)0p =局部多项式估计的特例。

事实上,当0p =时,若令1(1,1,,1),i n n n nX x x W diag K h h ⨯⎛⎫⎛⎫-'== ⎪ ⎪ ⎪⎝⎭⎝⎭ ,则此时00ˆˆ()LPE n m x β=即为N-W 估计(亦称局部常数估计),同理可考察11ˆˆ()LPE n m x β=。

对于样条光滑估计、傅里叶级数光滑估计、小波估计等估计方法由于时间原因这里不做介绍了。

● 光滑参数的选取光滑参数(即窗宽)n h 过小,随机误差所产生的噪音得不到排除,是没有意义的估计,n h 过大,会得到过分光滑的曲线,因此对窗宽n h 的选择是衡量核估计精度的重要因素。

关于窗宽n h 的选择有三种方法:直接插入法、交错鉴定法、惩罚函数法,其中交错鉴定法是选择窗宽的一个常用方法,其基本思路是最小化下面的“交叉核实”目标函数:21()()ˆ[()]nn i i i i i CV h X Y m X π=-=-∑ (8)其中,ˆ()i imx -是剔除i x 后由余下1n -个样本数据估计出来的核回归估计量,()i x π是一个权函数。

最优窗宽的交叉核实估计量CV h 定义为最小化上面的目标函数,即:ˆarg min ()nCV nh h CV h = 一般情况下,实际中根据经验选取窗宽的时候也比较多。

三、非参数回归的现实应用例子: 数据选用1998年1月至2012年3月的居民消费价格指数(CPI )和货币供应量M0,数据来源自中国人民银行网站及中经网。

模型中因变量为CPI ,解释变量为M0,我们先用线性回归模型进行估计, 再用非参数回归方法中的局部多项式估计方法, 对上面的各个模型的估计结果进行比较以确定最合适的模型。

以下结果均使用R软件编程实现。

线性回归的结果如下:Estimate Std. Error t value Pr(>|t|) (Intercept) 9.847e+01 3.756e-01 262.19 <2e-16 ***m0 1.375e-04 1.391e-05 9.89 <2e-16 *** Multiple R-squared: 0.3666, Adjusted R-squared: 0.3628图1 CPI与M0线性回归结果从图1我们可以看出,虽然我们能得到CPI与M0之间的直线关系,但是直观上看很多点距离直线的距离较大,也就是估计的误差比较大。

用这种一元回归得到的预测也不一定准确。

图2为标准差的Q-Q图,可以看出残差并不是服从正态分布。

用线性回归模型做两者关系的拟合并不理想。

局部多项式回归拟合结果如下:图 3 局部多项式拟合结果图4为窗宽h放大四倍后的图形:图4 窗宽放大四倍后的拟合结果从图3,图4可以看出用非参数方法得到的拟合图像精确度较高,经计算,求得参数回归估计的MSE为4.259762,而非参数回归估计的MSE仅为,也支持上述结论。

四、结论从上述工作中我们可以看出LPE回归的拟合值与观测值基本一致,估计精度高。

从图3中我们可以看出通货膨胀率与货币供应量并不完全是正相关关系。

我们可以看到在M0达到30000亿前,CPI基本上是随着M0的增加而成上涨趋势,而从M0达到30000亿起,也就是2008年年初起至2009年8月,CPI出现了较大幅度的下降,这与金融危机的影响是密不可分的。

相关文档
最新文档