CY非参数回归的介绍

合集下载

非线性回归模型概述

非线性回归模型概述

非线性回归模型概述在统计学和机器学习领域中,回归分析是一种重要的数据建模技术,用于研究自变量和因变量之间的关系。

在实际问题中,很多情况下自变量和因变量之间的关系并不是简单的线性关系,而是呈现出复杂的非线性关系。

为了更准确地描述和预测这种非线性关系,非线性回归模型应运而生。

一、什么是非线性回归模型非线性回归模型是指自变量和因变量之间的关系不是线性的数学模型。

在非线性回归模型中,因变量的变化不是随着自变量的线性变化而变化,而是通过非线性函数的变化来描述二者之间的关系。

非线性回归模型可以更好地拟合实际数据,提高模型的预测准确性。

二、非线性回归模型的形式非线性回归模型的形式可以是各种各样的,常见的非线性回归模型包括多项式回归模型、指数回归模型、对数回归模型、幂函数回归模型、逻辑回归模型等。

这些非线性回归模型可以通过引入非线性函数来描述自变量和因变量之间的关系,从而更好地拟合数据。

1. 多项式回归模型多项式回归模型是一种常见的非线性回归模型,其形式为:$$y = \beta_0 + \beta_1x + \beta_2x^2 + \beta_3x^3 + ... +\beta_nx^n + \varepsilon$$其中,$y$为因变量,$x$为自变量,$\beta_0, \beta_1,\beta_2, ..., \beta_n$为回归系数,$n$为多项式的阶数,$\varepsilon$为误差。

2. 指数回归模型指数回归模型是描述因变量和自变量之间呈指数关系的非线性回归模型,其形式为:$$y = \beta_0 + \beta_1e^{\beta_2x} + \varepsilon$$其中,$y$为因变量,$x$为自变量,$\beta_0, \beta_1, \beta_2$为回归系数,$e$为自然对数的底,$\varepsilon$为误差。

3. 对数回归模型对数回归模型是描述因变量和自变量之间呈对数关系的非线性回归模型,其形式为:$$y = \beta_0 + \beta_1\ln(x) + \varepsilon$$其中,$y$为因变量,$x$为自变量,$\beta_0, \beta_1$为回归系数,$\ln$为自然对数,$\varepsilon$为误差。

非线性回归分析的入门知识

非线性回归分析的入门知识

非线性回归分析的入门知识在统计学和机器学习领域,回归分析是一种重要的数据分析方法,用于研究自变量和因变量之间的关系。

在实际问题中,很多情况下自变量和因变量之间的关系并不是简单的线性关系,而是呈现出一种复杂的非线性关系。

因此,非线性回归分析就应运而生,用于描述和预测这种非线性关系。

本文将介绍非线性回归分析的入门知识,包括非线性回归模型的基本概念、常见的非线性回归模型以及参数估计方法等内容。

一、非线性回归模型的基本概念在回归分析中,线性回归模型是最简单和最常用的模型之一,其数学表达式为:$$Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + ... + \beta_pX_p +\varepsilon$$其中,$Y$表示因变量,$X_1, X_2, ..., X_p$表示自变量,$\beta_0, \beta_1, \beta_2, ..., \beta_p$表示模型的参数,$\varepsilon$表示误差项。

线性回归模型的关键特点是因变量$Y$与自变量$X$之间呈线性关系。

而非线性回归模型则允许因变量$Y$与自变量$X$之间呈现非线性关系,其数学表达式可以是各种形式的非线性函数,例如指数函数、对数函数、多项式函数等。

一般来说,非线性回归模型可以表示为:$$Y = f(X, \beta) + \varepsilon$$其中,$f(X, \beta)$表示非线性函数,$\beta$表示模型的参数。

非线性回归模型的关键在于确定合适的非线性函数形式$f(X,\beta)$以及估计参数$\beta$。

二、常见的非线性回归模型1. 多项式回归模型多项式回归模型是一种简单且常见的非线性回归模型,其形式为: $$Y = \beta_0 + \beta_1X + \beta_2X^2 + ... + \beta_nX^n +\varepsilon$$其中,$X^2, X^3, ..., X^n$表示自变量$X$的高次项,$\beta_0, \beta_1, \beta_2, ..., \beta_n$表示模型的参数。

CY非参数回归介绍

CY非参数回归介绍

CY⾮参数回归介绍⾮参数回归简介⼀、参数回归与⾮参数回归的特点⽆论是线性回归还是⾮线性回归,其回归函数形式都是已知的,只是其中参数待定,所以可称为参数回归。

参数回归的最⼤优点是回归结果可以外延,但其缺点也不可忽视,就是回归形式⼀旦固定,就⽐较呆板,往往拟合效果较差。

另⼀类回归,⾮参数回归,则与参数回归正好相反。

它的回归函数形式是不确定的,其结果外延困难,但拟合效果却⽐较好。

参数回归与⾮参数回归的优缺点⽐较:参数回归:优点: (1).模型形式简单明确,仅由⼀些参数表达(eg: y=a+bx+e, a,b为待估参数)(2).在经济中,模型的参数⼀般都具有明确的经济含义(3).当模型参数假设成⽴,统计推断的精度较⾼,能经受实际检验(4).模型能够进⾏外推运算(5).模型可以⽤于⼩样本的统计推断缺点: (1).回归函数的形式预先假定(2).模型限制较多:⼀般要求样本满⾜某种分布要求,随机误差满⾜正态假设,解释变量间独⽴,解释变量与随机误差不相关,等(3).需要对模型的参数进⾏严格的检验推断,步骤较多(4).模型泛化能⼒弱,缺乏稳健性,当模型假设不成⽴,拟合效果不好,需要修正或者甚⾄更换模型⾮参数回归:优点; (1).回归函数形式⾃由,受约束少,对数据的分布⼀般不做任何要求(2).适应能⼒强,稳健性⾼,回归模型完全由数据驱动(3).模型的精度⾼(4).对于⾮线性、⾮齐次问题,有⾮常好的效果缺点: (1).不能进⾏外推运算 (2).估计的收敛速度慢(3).⼀般只有在⼤样本的情况下才能得到很好的效果,⽽⼩样本的效果较差(4).⾼维诅咒, 光滑参数的选取⼀般较复杂⼆、⾮参数回归的⽅法简介⾮参数回归⽅法样条光滑正交回归核回归:N-W估计、P-C估计、G-M估计局部多项式回归:线性、多项式光滑样条:光滑样条、B样条近邻回归:k-NN、k近邻核、对称近邻正交级数光滑局部回归Fourier级数光滑wavelet光滑处理⾼维的⾮参数⽅法:多元局部回归、薄⽚样条、可加模型、投影寻踪、回归树、张量积等。

非参数回归的介绍

非参数回归的介绍

非参数回归的介绍非参数回归是一种机器学习方法,用于建立数据之间的关系模型,而不依赖于预设模型的形式。

与传统的线性回归相比,非参数回归不对模型的形状施加任何限制,而是根据数据本身的分布情况来估计模型。

这使得非参数回归能够更好地适应各种类型的数据,包括非线性、非正态分布等等。

非参数回归的核心思想是基于样本数据的分布情况来估计目标函数。

传统的线性回归假设目标函数是线性的,并且通过最小二乘法来拟合数据和估计参数。

然而,这种假设可能无法满足真实世界中复杂的非线性关系,因此非参数回归通过灵活的模型拟合方法来解决这个问题。

在非参数回归中,我们通常使用核函数来逼近目标函数。

核函数是一个局部加权回归方法,它将目标函数估计为一些核函数在样本点附近的加权线性组合。

核函数的具体形式可以是高斯核、三角核、Epanechnikov核等。

这些核函数都有一个特点,即在样本点附近有较高的权重,而在样本点远离的地方权重则较低。

另一个非参数回归的优点是它不需要预先假设数据的分布。

线性回归通常假设数据是正态分布的,但在现实中往往无法满足这个假设。

非参数回归可以通过直接根据数据本身的分布情况进行估计,而不需要预设模型的形式。

这使得非参数回归更对真实数据的特点进行建模。

非参数回归还经常用于探索性数据分析和模型评估。

通过非参数回归,我们可以揭示变量之间的复杂关系,获得对目标函数的更深入的理解。

此外,在模型评估中,非参数回归可以用作基准模型,以便与其他模型进行比较和评估。

然而,非参数回归也存在一些局限性。

首先,非参数回归可能需要大量的计算资源,特别是对于大规模的数据集来说。

由于没有预设模型的形式,非参数回归需要在整个数据集上进行计算以估计模型参数,这在计算上是非常昂贵的。

此外,由于非参数回归没有对模型进行约束,可能容易出现过拟合问题。

为了解决这些问题,可以采取一些方法来提高非参数回归的性能。

一种方法是将非参数回归与其他技术结合使用,例如局部加权回归、岭回归等。

非参数回归分析

非参数回归分析

非参数回归分析非参数回归分析是一种无需对数据分布做出假设的统计方法,它通过学习数据的内在结构来建立模型。

与传统的参数回归分析相比,非参数回归分析更加灵活,适用于各种复杂的数据分布。

本文将介绍非参数回归分析的基本原理和应用场景,并通过实例来说明其实际应用。

一、非参数回归分析的原理非参数回归分析是通过将目标变量与自变量之间的关系建模为一个未知的、非线性的函数形式,并通过样本数据来估计这个函数。

与参数回归分析不同的是,非参数回归模型不需要表示目标变量与自变量之间的具体函数形式,而是通过样本数据来学习函数的结构和特征。

在非参数回归分析中,最常用的方法是核密度估计和局部加权回归。

核密度估计使用核函数对数据进行平滑处理,从而得到目标变量在不同自变量取值处的概率密度估计。

局部加权回归则是通过在拟合过程中给予靠近目标变量较近的样本点更大的权重,从而对目标变量与自变量之间的关系进行拟合。

二、非参数回归分析的应用场景1. 数据分布未知或复杂的情况下,非参数回归分析可以灵活地适应不同的数据分布,从而得到较为准确的模型。

2. 非线性关系的建模,非参数回归分析可以对目标变量与自变量之间的非线性关系进行拟合,从而获得更准确的预测结果。

3. 数据量较小或样本信息有限的情况下,非参数回归分析不需要对数据分布做出假设,并且可以通过样本数据来学习模型的结构,因此对数据量较小的情况下也具有一定的优势。

三、非参数回归分析的实际应用为了更好地理解非参数回归分析的实际应用,以下通过一个实例来说明。

假设我们有一组汽车销售数据,包括了汽车的价格和其对应的里程数。

我们希望通过这些数据预测汽车的价格与里程数之间的关系。

首先,我们可以使用核密度估计方法来估计汽车价格与里程数之间的概率密度关系。

通过对价格和里程数进行核密度估计,我们可以得到一个二维概率密度图,显示了不同价格和里程数组合的概率密度。

接下来,我们可以使用局部加权回归方法来拟合汽车价格与里程数之间的关系。

《非线性回归》课件

《非线性回归》课件

灵活性高
非线性回归模型形式多样,可以根据 实际数据和问题选择合适的模型,能 够更好地适应数据变化。
解释性强
非线性回归模型可以提供直观和易于 理解的解释结果,有助于更好地理解 数据和现象。
预测准确
非线性回归模型在某些情况下可以提 供更准确的预测结果,尤其是在数据 存在非线性关系的情况下。
缺点
模型选择主观性
势。
政策制定依据
政府和决策者可以利用非线性回归模型来评估不同政策方案的影响,从而制定更符合实 际情况的政策。例如,通过分析税收政策和经济增长之间的关系,可以制定更合理的税
收政策。
生物学领域
生态学研究
在生态学研究中,非线性回归模型被广 泛应用于分析物种数量变化、种群动态 和生态系统稳定性等方面。通过建立非 线性回归模型,可以揭示生态系统中物 种之间的相互作用和环境因素对种群变 化的影响。
模型诊断与检验
诊断图
通过绘制诊断图,可以直观地观察模型是否满足回归分析的假设条件,如线性关系、误差同方差性等 。
显著性检验
通过显著性检验,如F检验、t检验等,可以检验模型中各个参数的显著性水平,从而判断模型是否具 有统计意义。
04
非线性回归在实践中的应用
经济学领域
描述经济现象
非线性回归模型可以用来描述和解释经济现象,例如消费行为、投资回报、经济增长等 。通过建立非线性回归模型,可以分析影响经济指标的各种因素,并预测未来的发展趋
VS
生物医学研究
在生物医学研究中,非线性回归模型被用 于分析药物疗效、疾病传播和生理过程等 方面。例如,通过分析药物浓度与治疗效 果之间的关系,可以制定更有效的治疗方 案。
医学领域
流行病学研究
在流行病学研究中,非线性回归模型被用于 分析疾病发病率和死亡率与各种因素之间的 关系。通过建立非线性回归模型,可以揭示 环境因素、生活方式和遗传因素对健康的影 响。

非线性回归分析

非线性回归分析

非线性回归分析随着数据科学和机器学习的发展,回归分析成为了数据分析领域中一种常用的统计分析方法。

线性回归和非线性回归是回归分析的两种主要方法,本文将重点探讨非线性回归分析的原理、应用以及实现方法。

一、非线性回归分析原理非线性回归是指因变量和自变量之间的关系不能用线性方程来描述的情况。

在非线性回归分析中,自变量可以是任意类型的变量,包括数值型变量和分类变量。

而因变量的关系通常通过非线性函数来建模,例如指数函数、对数函数、幂函数等。

非线性回归模型的一般形式如下:Y = f(X, β) + ε其中,Y表示因变量,X表示自变量,β表示回归系数,f表示非线性函数,ε表示误差。

二、非线性回归分析的应用非线性回归分析在实际应用中非常广泛,以下是几个常见的应用领域:1. 生物科学领域:非线性回归可用于研究生物学中的生长过程、药物剂量与效应之间的关系等。

2. 经济学领域:非线性回归可用于经济学中的生产函数、消费函数等的建模与分析。

3. 医学领域:非线性回归可用于医学中的病理学研究、药物研发等方面。

4. 金融领域:非线性回归可用于金融学中的股票价格预测、风险控制等问题。

三、非线性回归分析的实现方法非线性回归分析的实现通常涉及到模型选择、参数估计和模型诊断等步骤。

1. 模型选择:在进行非线性回归分析前,首先需选择适合的非线性模型来拟合数据。

可以根据领域知识或者采用试错法进行模型选择。

2. 参数估计:参数估计是非线性回归分析的核心步骤。

常用的参数估计方法有最小二乘法、最大似然估计法等。

3. 模型诊断:模型诊断主要用于评估拟合模型的质量。

通过分析残差、偏差、方差等指标来评估模型的拟合程度,进而判断模型是否适合。

四、总结非线性回归分析是一种常用的统计分析方法,可应用于各个领域的数据分析任务中。

通过选择适合的非线性模型,进行参数估计和模型诊断,可以有效地拟合和分析非线性关系。

在实际应用中,需要根据具体领域和问题的特点来选择合适的非线性回归方法,以提高分析结果的准确性和可解释性。

非参数回归方法

非参数回归方法

非参数回归方法非参数回归是一种灵活的建模技术,它不依赖于对数据分布的假设,因此适用于各种类型的数据分析问题。

本文将介绍非参数回归的基本原理和常用方法,包括局部线性回归、核回归和样条回归等。

1. 非参数回归的基本原理非参数回归可以看作是对自变量与因变量之间的关系进行拟合的过程,而不需要对关系的具体形式进行假设。

与参数回归不同,非参数回归方法不直接对某个函数形式进行建模,而是通过对数据进行适当的拟合,从中获取自变量与因变量之间的关系。

2. 局部线性回归局部线性回归是一种常用的非参数回归方法,它假设在自变量附近的小区域内,自变量与因变量之间的关系可以近似为线性关系。

具体而言,局部线性回归通过在每个数据点附近拟合一个线性模型来进行预测。

这种方法可以有效地捕捉到数据的非线性关系。

3. 核回归核回归是另一种常见的非参数回归方法,它利用核函数对自变量进行加权来进行拟合。

核函数通常具有类似正态分布的形状,在自变量附近的数据点被赋予更大的权重,而离自变量远的数据点则被赋予较小的权重。

核回归可以灵活地适应不同的数据分布和关系形式。

4. 样条回归样条回归是一种基于样条函数的非参数回归方法,它将自变量的取值范围划分为若干个区间,并在每个区间内拟合一个多项式函数。

样条函数的拟合可以采用不同的方法,例如样条插值和样条平滑等。

样条回归能够更精确地捕捉到数据中的非线性关系。

5. 非参数回归的优势和应用领域与参数回归相比,非参数回归具有更高的灵活性和鲁棒性。

非参数回归方法不依赖于对数据分布和关系形式的假设,适用于各种类型的数据分析问题。

非参数回归广泛应用于经济学、统计学、金融学等领域,用于探索变量之间的关系、预测未知观测值等。

结论非参数回归方法是一种适用于各种类型数据分析问题的灵活建模技术。

本文介绍了非参数回归的基本原理和常用方法,包括局部线性回归、核回归和样条回归等。

非参数回归方法能够更准确地捕捉数据中的非线性关系,具有更高的适应性和鲁棒性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

非参数回归简介一、参数回归与非参数回归的特点无论是线性回归还是非线性回归,其回归函数形式都是已知的,只是其中参数待定,所以可称为参数回归。

参数回归的最大优点是回归结果可以外延,但其缺点也不可忽视,就是回归形式一旦固定,就比较呆板,往往拟合效果较差。

另一类回归,非参数回归,则与参数回归正好相反。

它的回归函数形式是不确定的,其结果外延困难,但拟合效果却比较好。

参数回归与非参数回归的优缺点比较:参数回归:优点: (1).模型形式简单明确,仅由一些参数表达(eg:y=a+bx+e, a,b为待估参数)(2).在经济中,模型的参数一般都具有明确的经济含义(3).当模型参数假设成立,统计推断的精度较高,能经受实际检验(4).模型能够进行外推运算(5).模型可以用于小样本的统计推断缺点: (1).回归函数的形式预先假定(2).模型限制较多:一般要求样本满足某种分布要求,随机误差满足正态假设,解释变量间独立,解释变量与随机误差不相关,等(3).需要对模型的参数进行严格的检验推断,步骤较多(4).模型泛化能力弱,缺乏稳健性,当模型假设不成立,拟合效果不好,需要修正或者甚至更换模型非参数回归:优点; (1).回归函数形式自由,受约束少,对数据的分布一般不做任何要求(2).适应能力强,稳健性高,回归模型完全由数据驱动(3).模型的精度高(4).对于非线性、非齐次问题,有非常好的效果缺点: (1).不能进行外推运算 (2).估计的收敛速度慢(3).一般只有在大样本的情况下才能得到很好的效果,而小样本的效果较差(4).高维诅咒, 光滑参数的选取一般较复杂二、非参数回归的方法简介非参数回归方法样条光滑正交回归核回归:N-W估计、P-C估计、G-M估局部多项式回归:线性、多项式光滑样条:光滑样条、B样条近邻回归:k-NN、k近邻核、对称近邻正交级数光滑局部回归Fourier级数光滑wavelet光滑处理高维的非参数方法:多元局部回归、薄片样条、可加模型、投影寻踪、回归树、量积等。

●回归模型:设Y 为被解释变量,X 为解释变量,当X 为d 维随机变量时,1(,)d X Y R +∈,(,)i i X Y 为(,)X Y 的相互独立观测样本。

非参数回归模型如下:(1) 其中i e 为相互独立同分布随机变量,满足期望0i Ee =,方差2()i Var e σ=。

()i m X 是未知的函数,目标是要把()i m X 估计出来。

易知,()()E Y X x m x ==。

●权函数方法非参数回归的基本方法有核函数法,最近邻函数法,局部多项式方法、样条函数法,小波函数法。

这些方法尽管起源不一样,数学形式相距甚远,但都可以视为关于Y i 的线性组合的某种权函数。

也就是说,回归函数()m x 的估计ˆ()mx 总可以表为下述形式: 1ˆ()()ni i i mx W x Y ==∑(2) 其中{W i (X )}称为权函数。

这个表达式说明,ˆ()mx 总是Y i 的线性组合,一个Y i 对应一个W i 。

不过W i 与X i 倒没有对应关系,W i 如何生成,也许不仅与X i 有关,而且可能与全体的{X i }或部分的{X i }有关,要视具体函数而定,所以W i (X )写得更细一点应该是W i (x ;X 1,…,X n )。

这个权函数形式实际也包括了线性回归。

如果i i i X Y εβ+'=,则1ˆ()i ii X X X X X Y β-''''=,也是Y i 的线性组合。

在一般实际问题中,权函数都满足下述条件:(),1,2,,i i i Y m X e i n=+=111(;,,)0,(;,,)1n i n i n i W x X X W x X X =≥=∑(3)下面我们结合具体回归函数看权函数的具体形式。

1.核函数法(N-W 估计)选定R d 空间上的核函数K ,一般取概率密度。

令11(;,,)/n i i i n i n n X x X x W x X X K K h h =⎛⎫⎛⎫--= ⎪ ⎪⎝⎭⎝⎭∑ (4) 显然∑==n i i W 11。

此时回归函数就是111ˆˆ()()i n n n N W n ni i i n i i i i n X x K h Y m x W x Y Y X x K h -===⎛⎫- ⎪⎝⎭===⎛⎫- ⎪⎝⎭∑∑∑ (5) 核函数估计的基本性质:定理1.设模型(1)中的()m x 的N-W 核函数估计为(2)式,且满足以下条件: (A1) ()K u du <+∞⎰ (A2) lim ()0u uK u →∞= (A3) 2EY <+∞(A4) ,0,n n n h nh →∞→→∞则对每一()m x ,()f x ,2(|)()Var Y X x x σ==的连续点,以与()0X f x >,有1ˆ()()()n P N W ni i n i Wx Y m x m x -==−−→∑2.k 近邻权函数估计k 近邻权估计不同于核估计的构建,核估计是在x 某固定邻域所对应的解释变量的局部加权平均,估计的好坏主要在于核函数与光滑参数的选取。

由核估计的定义知道,核估计的边界点的偏差将大于点处的偏差。

也就是说,核估计存在边界效应问题。

而k 近邻权估计是用最靠近x 的k 个观察值所对应的k 个解释变量的加权平均值。

由核函数的选择不同,分为k 近邻均匀权估计与k 近邻核权估计。

非参数模型(1)的k 近邻均匀权估计为1(,)()nn ni i i m x k W x Y ==∑其中1()0,xk ni i J W x k ⎧∈⎪=⎨⎪⎩,其他令1k n <<,为正整数,{:}xk i J i X x k =为离最近的个观测值之一.k 显然决定了权的大小与参加平均的i Y 的多少,k 实际上类似于N-W 估计中的光滑参数n h ,k 较大时,会提高k 近邻均匀权估计的光滑度。

3.局部多项式估计局部多项式估计使用局部广义最小二乘的思想,依靠局部多项式逼近i Y .设()m x 在X t =处的1p +阶导数存在,x 为t 邻域的任一点,则()m x 的Taylor 展开式为()()()()()()()!p p m t m x m t m t x t x t p '≈+-++- (6) 因此,可以视()(),(),,()p m t m t m t '为待估参数,令()!(0,1,)j j m t j j p β==,则(6)式可写为01()()()p i p i m x X t X t βββ≈+-++-(7) 这里11(,),,(,)n n X Y X Y 为(,)X Y 的观测样本。

1201(,,,),(,,)T T n n Y Y Y Y ββββ==。

由WLSE 解上式得1ˆ()X WX X WY β-''=01ˆˆˆˆ(,,,)T pββββ=.于是在(6),(7)中: ()0ˆˆˆˆ(),()!j jm t m t j ββ== 当t 取遍X 的样本点时,可以得到整个曲线的估计ˆ()LPE np m 。

LPE 估计的主要优点为:可以同时用于当X 为随机或者固定设计的形式,并同时给出()m 所有r 阶()r m 的估计ˆ()r m。

更重要的是不必修正边界。

不难发现,N-W 回归估计(*)是(7)0p =局部多项式估计的特例。

事实上,当0p =时,若令1(1,1,,1),i n n n nX x x W diag K h h ⨯⎛⎫⎛⎫-'== ⎪ ⎪ ⎪⎝⎭⎝⎭,则此时00ˆˆ()LPE n m x β=即为N-W 估计(亦称局部常数估计),同理可考察11ˆˆ()LPE n m x β=。

对于样条光滑估计、傅里叶级数光滑估计、小波估计等估计方法由于时间原因这里不做介绍了。

● 光滑参数的选取光滑参数(即窗宽)n h 过小,随机误差所产生的噪音得不到排除,是没有意义的估计,n h 过大,会得到过分光滑的曲线,因此对窗宽n h 的选择是衡量核估计精度的重要因素。

关于窗宽n h 的选择有三种方法:直接插入法、交错鉴定法、惩罚函数法,其错鉴定法是选择窗宽的一个常用方法,其基本思路是最小化下面的“交叉核实”目标函数: 21()()ˆ[()]n n i i i i i CV h X Y m X π=-=-∑ (8)其中,ˆ()i im x -是剔除i x 后由余下1n -个样本数据估计出来的核回归估计量,()i x π是一个权函数。

最优窗宽的交叉核实估计量CV h 定义为最小化上面的目标函数,即:ˆarg min ()nCV n h h CV h = 一般情况下,实际中根据经验选取窗宽的时候也比较多。

三、非参数回归的现实应用例子: 数据选用1998年1月至2012年3月的居民消费价格指数(CPI )和货币供应量M0,数据来源自中国人民银行与中经网。

模型中因变量为CPI,解释变量为M0,我们先用线性回归模型进行估计, 再用非参数回归方法中的局部多项式估计方法, 对上面的各个模型的估计结果进行比较以确定最适宜的模型。

以下结果均使用R 软件编程实现。

线性回归的结果如下:Estimate Std. Error t value Pr(>|t|) (Intercept) 9.847e+01 3.756e-01 262.19 <2e-16 ***m0 1.375e-04 1.391e-05 9.89 <2e-16 *** Multiple R-squared: 0.3666, Adjusted R-squared: 0.3628图1 CPI与M0线性回归结果从图1我们可以看出,虽然我们能得到CPI与M0之间的直线关系,但是直观上看很多点距离直线的距离较大,也就是估计的误差比较大。

用这种一元回归得到的预测也不一定准确。

图2为标准差的Q-Q图,可以看出残差并不是服从正态分布。

用线性回归模型做两者关系的拟合并不理想。

图2 线性回归残差Q-Q图局部多项式回归拟合结果如下:图 3 局部多项式拟合结果图4为窗宽h放大四倍后的图形:图4 窗宽放大四倍后的拟合结果从图3,图4可以看出用非参数方法得到的拟合图像精确度较高,经计算,求得参数回归估计的MSE为4.259762,而非参数回归估计的MSE仅为,也支持上述结论。

四、结论从上述工作中我们可以看出LPE回归的拟合值与观测值基本一致,估计精度高。

从图3中我们可以看出通货膨胀率与货币供应量并不完全是正相关关系。

我们可以看到在M0达到30000亿前,CPI基本上是随着M0的增加而成上涨趋势,而从M0达到30000亿起,也就是2008年年初起至2009年8月,CPI出现了较大幅度的下降,这与金融危机的影响是密不可分的。

相关文档
最新文档