高维面板数据降维与变量选择方法研究

合集下载

高维数据的降维处理方法比较与应用研究

高维数据的降维处理方法比较与应用研究

高维数据的降维处理方法比较与应用研究一、引言随着现代科学技术和信息技术的飞速发展,高维数据的产生与应用越来越普遍。

高维数据处理具有数据密度大、维数指数级增长、计算量大等问题。

如何对高维数据进行降维处理,是现代数据处理研究的热点问题之一。

本文将从理论分析和实践应用两个方面,比较和总结了当前常用的高维数据降维处理方法,并探讨了它们在实际应用中的优缺点。

二、高维数据的降维处理方法1.主成分分析主成分分析(PCA)是一种将多维数据集投影到低维空间的统计方法。

PCA通过对数据的协方差矩阵进行特征值分解,得到一组新的正交特征向量,以此来实现降维。

PCA是目前最常见的降维方法之一,具有简单、快捷、有效等优点,但是当数据集中存在较多的噪声时,PCA容易出现较大误差,因此需要进行一些预处理等工作。

2.线性判别分析线性判别分析(LDA)也是一种数据降维方法。

与PCA不同的是,LDA不是一般的特征值分解,而是要求新的特征空间要最大程度地能够区分不同类之间的数据。

LDA已经被广泛应用在人脸识别、图像处理、数据挖掘等领域。

3.独立成分分析独立成分分析(ICA)是从多个信号中分离出独立成分的方法。

ICA假设混合信号是由若干个独立成分所构成,通过迭代估计出这些成分,从而得到每个单独的成分及其权值。

ICA是目前的一种非常有效的数据降维方法,尤其在信号分析、图像处理与生物学等领域中应用广泛。

4.奇异值分解奇异值分解(SVD)是一种非常重要的矩阵分解方法,它能够将一个任意形状的矩阵分解为三个矩阵相乘的形式。

SVD是目前最流行且最常用的降维技术之一。

它带有保序性、可以处理丢失数据等优点,常被用来在图像处理和语音识别中做降维处理。

三、高维数据降维方法的应用研究1. 人脸识别人脸识别是一种非常重要的应用场景,近年来得到了广泛的关注。

使用PCA、LDA和ICA等降维方法可以有效地提高人脸识别的准确性。

在PCA降维处理后,该方法可以自动学习出的人脸的重要特征,并且可以对不同人脸的特征进行分类,大大提高人脸识别的准确性。

高维数据降维算法的研究及应用

高维数据降维算法的研究及应用

高维数据降维算法的研究及应用随着数据科学和人工智能领域的不断发展,我们可以在无数现实应用场景中找到大量的高维数据。

在这些场景中,获得和储存数据变得越来越容易。

然而,随着维度的增加,我们面临的另一个问题是数据的可视化和分析。

高维数据的可视化和分析是困难的,因为人脑无法有效地处理高维数据。

换句话说,我们需要降低数据的维度才能有效地分析和使用高维数据。

数据降维是机器学习和数据科学中的基本问题之一。

它可以通过将高维数据投影到低维子空间来减少维度。

这个过程可以通过使用各种线性和非线性算法自动完成。

在本文中,我们将研究高维数据降维算法的研究和应用。

一、高维数据降维算法的需求在实际应用中,高维数据降维有许多应用场景。

其中一些包括:● 数据可视化:数据可视化是分析数据的基本方法之一。

高维数据的可视化通常需要将其降低到二维或三维空间中。

● 特征提取:特征提取是机器学习中的一个重要步骤。

它可以将高维数据降低到低维空间,以减少计算量和增加模型的泛化能力。

● 数据压缩:高维数据通常需要更大的存储空间。

通过降低维度,可以减少存储空间的需求,从而降低存储和处理成本。

二、线性降维算法线性降维算法是最常用的降维算法之一。

下面列出了一些流行的线性降维算法:1. 主成分分析(PCA)PCA是最广泛使用的线性降维算法之一。

它通过将数据投影到一个子空间(即主成分)来降低维度。

主成分是数据中方差最大的方向。

通过选择前k个主成分(k<<n),可以将数据降低到k维空间中。

PCA是一种贪心算法,旨在最大限度地保留原始数据的方差。

它是数据降维的最佳选择之一,可以更好地表示数据,并且通常可以获得较好的结果。

2. 线性判别分析(LDA)LDA旨在找到分割两个类的最佳超平面。

它是一种监督学习算法,可以通过选择前k个线性判别变量(k<<n)将数据降低到k维空间中。

与PCA相比,LDA 仅能用于分类问题,并且通常具有比PCA更好的分类性能。

高维数据降维分析方法研究

高维数据降维分析方法研究

高维数据降维分析方法研究一、引言:高维数据是指数据具有很多的特征(维度),而维度的增加会带来很多问题,如数据的稀疏性和维数灾难等。

其中,维数灾难是指随着维数的增加,需要的数据量也会呈指数级增加,导致数据样本变得非常稀疏。

因此,高维数据的处理和分析成为了一个重要的问题。

其中,降维分析是高维数据分析中非常重要的一个研究领域,本文旨在探讨高维数据降维分析的方法。

二、高维数据降维方法分类降维方法主要分为线性降维方法和非线性降维方法两大类。

其中,线性降维方法基于线性变换对数据进行降维,包括主成分分析(PCA)、因子分析(FA)等,而非线性降维方法主要是通过非线性变换实现降维,包括局部线性嵌入(LLE)、等距映射(Isomap)等。

下面将分别介绍这些方法。

2.1 主成分分析(PCA)主成分分析是最常用的线性降维方法之一,其主要思想是将高维数据映射到低维空间中,并保证映射后数据信息量最大化。

具体来说,PCA会根据变量之间的协方差矩阵来计算主成分,并将数据映射到新的坐标系中,从而完成降维。

该方法常用于数据可视化和特征提取等任务。

2.2 因子分析(FA)因子分析是一种可用于探索数据集中的潜在因素的方法。

其假设数据集中的每个观测值都由多个远程因素的和组成,且每个因素可以解释数据集中的某个方面。

因子分析可以将这些因素解释为主成分,从而降低数据的维度,并增加对数据结构的理解。

2.3 局部线性嵌入(LLE)局部线性嵌入是一种非线性降维方法,它的核心思想是利用最邻近关系来保持数据的局部结构。

具体来说,LLE会先找到每个数据点的最近邻,在该最近邻中对所有点的常量权重进行线性组合,最终从中选择一个向量作为数据点的降维表示。

LLE受数据分布的影响较小,能够很好地保持数据的局部结构,但在某些情况下,算法的结果会受到噪声因素的影响。

2.4 等距映射(Isomap)等距映射是另一种非线性降维方法,其主要思想是通过保持数据之间的各向同性距离来保持数据的“全局”结构。

高维数据降维算法的研究及其应用

高维数据降维算法的研究及其应用

高维数据降维算法的研究及其应用一、绪论随着科技的发展,数据的产生越来越频繁且规模越来越大。

高维数据的产生和传播给数据处理、统计学和机器学习等领域带来了新的挑战。

高维数据存在许多非常复杂的特征,对数据处理和分析都带来了很大的难度,而其中一个最重要的问题就是高维数据之间的相关或联系关系。

高维数据降维算法是一种经典的数据处理技术,通过减少数据的维度,从而达到简化数据的目的。

本文将主要研究高维数据降维算法的研究及其应用。

二、高维数据降维算法的研究1.主成分分析对于高维数据,主成分分析(PCA)是最常见的降维算法之一。

PCA是通过线性变换将原始数据映射到低维子空间进行降维处理的。

PCA可以将原始数据映射到一个新的轴系上,以最大程度地保留原有数据的方差和信息。

PCA虽然简单易懂,但当数据的维度非常高时,PCA会变得非常耗时。

2.局部线性嵌入局部线性嵌入(LLE)是一种非线性降维算法。

相比PCA, LLE 可以处理更复杂的高维数据之间结构和关系。

LLE通过局部重构高维数据之间的关系,最终映射到低维子空间。

LLE算法的优劣取决于它所选择的局部邻域以及重构权重的选择。

LLE的不足之处是其计算时间和空间复杂度都非常高。

3.高斯混合模型高斯混合模型(GMM)是另一种非常流行的降维算法。

它可以将原始数据通过多个高斯分布拟合为多个不同的簇。

每个簇代表原始数据的一部分,从而将数据映射到低维子空间。

GMM算法的优劣取决于高斯分布的数量与取值的选择。

GMM的不足之处是其计算时间也非常高。

三、降维算法的应用1.数据可视化在数据可视化方面,降维算法可以帮助将高维数据映射到二维或三维空间,从而可以将数据可视化为更容易理解和处理的形式。

通过降维算法,我们可以更好地理解数据之间的内在联系和非线性结构等。

2.特征提取在信号处理和图像处理领域,降维算法可以帮助提取最重要的特征,从而对信号或图像进行分类和处理。

通过降维算法,我们可以将信号和图像的高维数据映射到低维空间,从而更好地区分不同类型和特性的数据。

高维数据降维方法研究与比较

高维数据降维方法研究与比较

高维数据降维方法研究与比较降维是数据处理领域中的重要问题,特别是在高维数据分析中。

高维数据指具有大量维度的数据,由于其维度高,数据分析和可视化变得困难,因此需要采用降维方法将数据映射到低维空间中。

本文将研究和比较几种常用的高维数据降维方法。

一、主成分分析(PCA)主成分分析是一种经典的线性降维方法,通过找到数据中最大方差方向的一组正交基,将高维数据映射到低维空间。

PCA的优点是简单且易于理解,可以保留较高比例的原始数据方差。

然而,PCA在处理非线性数据时效果欠佳,且无法处理样本之间的非线性关系。

二、独立成分分析(ICA)独立成分分析是基于统计学的降维方法,通过寻找数据中的独立成分,将高维数据分解为相互独立的子空间。

ICA适用于非高斯分布的数据,可以发现数据中的隐藏信息。

然而,ICA对数据分布的假设较强,对噪声和异常值敏感。

三、流形学习(Manifold Learning)流形学习是一种非线性降维方法,基于流形假设,认为高维数据存在于低维流形上。

流形学习可以通过保持数据局部特征结构来实现降维,能够较好地处理非线性数据。

常见的流形学习算法包括局部线性嵌入(LLE)、等距映射(Isomap)和拉普拉斯特征映射(LE)。

流形学习的不足之处在于对参数选择敏感,计算复杂度较高。

四、自动编码器(Autoencoder)自动编码器是一种基于神经网络的无监督学习模型,通过训练编码器和解码器来学习高维数据的低维表示。

自动编码器可以学习数据的高阶特征,对非线性数据具有较好的适应性。

然而,自动编码器容易过拟合,并且在训练过程中需要大量的计算资源。

总结来说,不同的高维数据降维方法各有优劣。

PCA适用于线性数据降维,ICA适用于非高斯分布数据,流形学习适用于非线性数据,自动编码器则可以学习高阶特征。

在实际应用中,可以根据数据的特点选择合适的降维方法。

同时,也可以结合多种降维方法进行综合分析,以获取更好的降维效果。

降维方法的比较需要考虑多个方面,如降维效果、计算复杂度、对异常值和噪声的敏感性等。

高维数据降维方法研究及其应用

高维数据降维方法研究及其应用

高维数据降维方法研究及其应用随着现代科技的飞速发展,大量的数据在各个领域不断地积累。

在数据分析和处理中,高维数据是一种非常常见的数据形式,例如在科学、工程、金融和医学等领域中。

然而,高维数据的存在也使得其处理和分析变得困难。

高维数据降维的方法应运而生,这是一种重要的数据分析技术,也是促进各个领域发展的重要支持。

一、高维数据的问题高维数据指的是包含许多变量的数据集,这些变量可能是连续值、离散值或者混合型的变量。

在高维空间中,数据的数量减少了,但数据的稀疏性增强了。

在高维空间中,大量的向量之间的距离关系变得不明显,同时会出现维数灾难的问题。

维数灾难是指高维空间会出现过拟合的问题,而这个问题很难通过增加样本来解决。

二、高维数据的降维为了解决高维数据的问题,降维技术被广泛使用。

降维技术主要有两种:线性降维和非线性降维。

1.线性降维线性降维技术是通过矩阵运算将高维空间的点映射到低维空间的平面或曲面上。

线性降维技术主要有主成分分析(PCA)、线性判别分析(LDA)、因子分析等。

(1)PCA主成分分析是一种常用的线性降维方法,用于消除高维数据中的冗余信息。

主成分分析的基本思想是将高维数据映射到低维空间中。

在低维空间中,保留的特征尽可能多而且不丢失信息。

PCA通过将高维空间向低维空间映射,实现降维。

(2)LDA线性判别分析是一种有监督的线性降维方法。

LDA是通过分析类别之间的信息,寻找最佳的投影方式,使得各个类别在映射平面上有很好的区分度。

2.非线性降维除了线性降维方法外,非线性降维技术也衍生出来了。

非线性降维技术通过将高维数据映射到低维空间上的非线性流形中,实现降维。

流形意味着数据在低维空间中具有固有结构,因此在某些情况下,非线性技术可以比线性技术更好地保留数据的特征。

三、高维数据降维的应用高维数据降维的应用非常广泛,主要包括以下几个方面。

1.图像处理在图像处理方面,高维数据可以表示为一个像素矩阵。

通过降维,可以将图像的特征提取出来,比如脸部识别和分类。

高维数据降维方法的研究与比较分析

高维数据降维方法的研究与比较分析

高维数据降维方法的研究与比较分析高维数据降维是一个重要的数据分析问题,多维数据通常包含大量的冗余信息和噪声,而且在高维空间中的计算复杂度较高。

因此,降维方法可以帮助我们减少数据维度,提取数据中的重要信息,从而简化数据分析,加快计算速度,并且可以用可视化的方法更好地理解和分析高维数据。

本文将对一些常用的高维数据降维方法进行研究和比较分析。

首先介绍降维方法的基本原理和常见的评价指标,然后分别介绍主成分分析(PCA)、线性判别分析(LDA)、局部线性嵌入(LLE)、t分布随机邻域嵌入(t-SNE)和自编码器等方法,并分析它们的优缺点。

最后,我们通过实例对这些方法进行比较分析。

降维方法的基本原理是通过将高维数据映射到低维空间,保留数据的重要信息。

常见的评价指标包括保留的信息量、可视化效果和计算效率等。

信息量可以通过方差或者信息增益等指标衡量,可视化效果可以通过样本点在二维或者三维空间的分布来观察,计算效率可以通过时间复杂度和空间复杂度等指标来评估。

主成分分析(PCA)是最常用的降维方法之一,它通过线性变换将高维数据转换为低维数据,使得低维数据的方差最大化。

优点是简单易懂,计算高效,但它只考虑了样本间的协方差,忽略了类别信息。

线性判别分析(LDA)是一种有监督的降维方法,它在PCA的基础上考虑了类别信息,在保持低维空间数据的分离性的同时,最大化同类样本点的方差,最小化不同类样本点的方差。

优点是考虑了类别信息,但缺点是计算复杂度较高,对于非线性数据的分类效果不好。

局部线性嵌入(LLE)是一种非线性降维方法,它考虑了样本间的局部关系,通过保持样本的局部邻域结构来降维。

优点是对非线性数据有较好的降维效果,但缺点是计算复杂度较高,对异常值非常敏感。

t分布随机邻域嵌入(t-SNE)是一种用于可视化的降维方法,它通过最小化高维数据和低维数据间的Kullback-Leibler散度来保持样本间的相似性。

优点是可以从高维数据中提取出局部结构,但缺点是计算复杂度较高,对大规模数据不适用。

高维数据降维方法比较与研究

高维数据降维方法比较与研究

高维数据降维方法比较与研究在大数据时代的今天,我们面对的数据越来越庞大复杂。

高维数据成为了我们需要处理的一项重要课题,因为它包含了大量的信息。

但是,随着维度的增加,数据上的噪声和冗余信息也同样增加,导致了分析和理解数据的难度。

为了解决这一问题,降维成为了一个有效的处理方法。

本文将从降维的背景和意义,以及几种常见的降维方法入手,进行比较与研究。

I. 背景和意义高维数据,如地震波形、旋转的三维物体、股市行情等等,每个数据点的维度都很多,通常超过了三维。

但对于很多科学家以及数据分析师,我们往往不能在高于三维的空间中展示数据,这是因为我们无法想象或者观察到高维空间。

因此,如何将数据在以我们能直观理解的低维空间中进行展示,成为了我们需要解决的问题。

此外,降维还可以减少数据的规模和复杂性,从而简化数据处理流程并提高处理效率,这对于数据的挖掘、探索和可视化具有重要意义。

II. 降维方法1. 主成分分析法主成分分析法(Principal Component Analysis, PCA)是一种经典的降维方法,其基本思想是找到一个新的坐标系,使得数据的方差最大。

PCA一般包括两个步骤:线性变换与方差分解。

其中线性变换将高维数据映射到低维空间,方差分解则将线性变换后的数据按照各个维度的方差大小进行排序,然后选择前k个方差较大的,作为新的特征向量。

PCA虽然简单易懂、计算速度快、能很好地保存原有数据的信息,但其结果只考虑了数据的方差,而忽略了样本间的相关性,因此在处理数据时可能会出现某些特征因相关性而被忽略的问题。

2. t-SNEt-SNE(t-Distributed Stochastic Neighbor Embedding)是一种非线性降维方法,它以概率分布的方式将数据从高维嵌入到低维空间,并且在低维空间内最大程度地保持数据间的邻近关系。

在t-SNE中,输入的高维数据被视为一组概率分布上的点,输出的低维数据也同样被视为一组概率分布上的点,它们的区别在于,在高维空间中的相似点被赋予较高的概率,而在低维空间中相似点的概率则被设为条件概率。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

高维面板数据降维与变量选择方法研究张波方国斌2012-12-14 14:35:56 来源:《统计与信息论坛》(西安)2012年6期第21~28页内容提要:从介绍高维面板数据的一般特征入手,在总结高维面板数据在实际应用中所表现出的各种不同类型及其研究理论与方法的同时,主要介绍高维面板数据因子模型和混合效应模型;对混合效应模型随机效应和边际效应中的高维协方差矩阵以及经济数据中出现的多指标大维数据的研究进展进行述评;针对高维面板数据未来的发展方向、理论与应用中尚待解决的一些关键问题进行分析与展望。

关键词:高维面板数据降维变量选择作者简介:张波,中国人民大学统计学院(北京100872);方国斌,中国人民大学统计学院,安徽财经大学统计与应用数学学院(安徽蚌埠233030)。

一、引言在社会现象观测和科学实验过程中经常会产生面板数据。

这类数据通过对多个个体在不同时间点上进行重复测度,得到每个个体在不同样本点上的多重观测值,形成时间序列和横截面相结合的数据,也就是所谓的“面板数据”。

由于应用背景的不同,面板数据有时也称作纵向数据(longitudinal data)。

面板数据广泛产生于经济学、管理学、生物学、心理学、健康科学等诸多领域。

随着信息技术的高速发展,数据采集、存储和处理能力不断提高,所谓的高维数据分析问题不断涌现。

对于多元统计分析而言,高维问题一般指如下两种情形:一种是变量个数p较大而样本量n相对较小,例如药物试验中有成千上万个观测指标而可用于实验观测的病人个数较少;另一种是变量个数户不大但是样本个数n较多,例如一项全国调查牵涉到大量的调查对象,而观测指标个数相对较少。

面板数据高维问题较多元(时序)高维问题更为复杂,因为面板数据至少包括两个维度:时间和横截面。

在实际应用中,不同个体在不同时间进行观测时可以获得多个指标值。

为了以下论述的方便,用p表示指标个数,T表示观测期长度,N表示个体(individual)或主题(subject)个数。

数理统计中所提到的高维(大维)问题,通常是指个体数N、时期长度T或指标个数p这三个变量中的一个或多个可以趋向于无穷。

具体应用中,只要N、T和p中有一个或多个大于某个给定的临界值,都称为高维问题。

本文主要研究两种基本类型的高维面板问题:一类为面板数据分析中解释变量个数p非常多,超过个体数N和时期数T,比如零售商业网点成千上万种商品扫描数据,央行和国家统计部门得到的多个指标在不同个体宏观经济观测数据等;另一类是混合效应模型中随机效应和固定效应设定时方差协方差矩阵所需确定的参数个数较多,某些参数的值趋向于零,要对方差协方差矩阵进行变量选择,此时针对固定效应和随机效应可以采用不同的变量选择策略。

二、高维面板数据因子模型大型数据集构成的社会经济面板的特点是具有成百上千个观测指标,也就是具有所谓的高维特征。

由于这种特征的存在,采用经典统计计量分析方法很难进行处理。

因子模型(factor model)不仅可以有效降低数据的维度,而且可以充分体现面板数据内部的序列相依性和截面相依性,因此可以针对不同的应用领域建立相应的因子模型对高维面板数据进行分析。

例如构建套利定价模型时,将多个证券的投资组合用公因子表示,进行收益率预测;研究经济周期变动,尤其是重大事件对经济发展影响时,将各经济体的产出指标用几个公因子表示,用因子模型分析各经济体同步变动情况以及重大事件对各经济体的冲击大小,等等。

面板数据因子模型是对解释变量或者误差成分项进行因子分解后所建立的模型。

实际应用中,当模型中解释变量的个数较多,例如p大于N,就可以对解释变量进行因子分解,用少数几个公因子和与之对应的因子载荷表示大量解释变量,从而起到降维的效果。

对误差成分进行因子分解主要是为了体现个体或时间的共同趋势和交互效应,其中因子分解的方法一般采用多元统计分析中的主成分法,为了进一步研究的需要,有时候还要采用极大似然法或者回归法计算因子得分,并将因子得分代入模型进行估计。

因子模型中采用较广泛的是动态因子模型(dynamic factor model),这主要是因为动态因子模型能够较好体现变量前后时期之间的相关性,便于进行外推预测,体现序列的内在结构。

面板数据动态因子模型的一般形式如下:动态因子模型在对解释变量(协变量)进行降维的同时,尽可能用较少公因子体现解释变量的大部分信息。

对于社会经济现象中大量存在的高维面板数据而言,动态因子模型提供了高维问题降维的一种思路。

相比较其他统计建模方法而言,动态因子模型充分考虑到横截面相关和序列相关对面板数据建模的影响,正确揭示了面板数据内部相依特征,能够更加合理地解释某些社会经济现象的变化规律。

在动态因子模型估计和检验过程中,通过对统计量的渐近性和协方差矩阵的结构特征进行研究,推动了诸如随机矩阵理论、谱分解理论、高维变量选择等理论的进一步发展。

近年来,动态因子模型已逐渐运用于大型宏观数据集的分析中。

研究者分别从动态因子模型形式的设定、协方差结构和潜在因子的估计等方面进行了理论探讨,同时相关的应用研究也正在逐步展开。

(一)动态因子模型的设定和估计高维面板数据集普遍存在序列相关和(弱)截面相关,Stock和Watson提出在因子模型中加入观测变量的滞后项进行前向预测,从而充分考虑时间序列的相关性(动态性)[1]。

他们在时齐因子模型的基础上采用时变因子载荷刻画序列和截面相依。

在对美国联邦储备委员会工业产品指数的预测中,该模型与自回归模型(AR)和向量自回归模型(VAR)相比预测误差(MSE)相对较小。

Stock 和Watson进一步将VAR和动态因子模型相结合,运用这种近似因子模型研究货币政策冲击对宏观经济的影响,讨论动态因子个数估计和VAR基础上的因子约束检验问题[2];Pesaran和Chudik在无限维向量自回归模型中采用动态因子,以体现具有显著效果的某个变量或截面单元对当期和滞后期其他变量的影响[3];Song、H rdle、Ritov考虑到时间序列中往往存在非平稳性和可能的周期性,提出了一种两步估计方法[4]:第一步,采用分组LASSO(最小绝对收缩和选择算子)类型的技术选择时间基函数,运用平滑函数主成分分析选择空间基函数;第二步,运用动态因子模型获得一个去除趋势(又称退势)的低维随机过程,并将这种广义动态半参数因子模型应用于气温、核磁共振和隐含波动面数据的分析中。

动态因子载荷的估计也得到了进一步的研究。

Forni等人提出了一种两阶段“广义主成分”估计方法,第一步估计公共成分的协方差,第二步确定主成分分析的权重,这种分析放宽了对特性因子的结构约束[5];Deistler和Zinner讨论了广义线性动态因子模型的结构特征,包括可识别性,模型估计等一系列问题[6];因子载荷阵用随机游走表示显然缺乏实际证据,Banerjee和Marcellino 研究表明运用因子载荷中的时间变动进行预测效果较差,尤其是小样本情形[7];传统的假设要求特性因子的结构为对角矩阵,然而由于因子载荷中可能存在结构突变,这一条件很难得到满足,Breitung和Eickmeier提出构造LR、LM和Wald 统计量对静态和动态因子模型结构突变进行检验,并将其运用于美国和欧元区国家经济增长模式转变的研究[8]。

因子个数的选择是因子分析必须考虑的问题之一。

在高维动态因子模型中,因子个数的选择可以不依赖于复杂的协方差矩阵;Bai和Ng提出了高维面板数据选择因子个数的一种准则,这种准则考虑由因子模型的类型来决定因子个数,而不是采用数据驱动的方法[9];Hallin和Liska运用谱密度矩阵的特征值识别广义动态因子模型的因子个数[10];动态因子模型不仅要确定因子个数,还要确定解释变量的滞后阶数,Harding和Nair对传统的碎石图(scree plot)方法予以了推广,并运用随机矩阵理论和Stieltjes变换对特征值的分布进行分析,得出了基于矩的因子个数和滞后阶数的一致估计方法[11]。

高维面板数据分析中,因子个数的多少决定了最终维数的大小,同时也决定了因子模型解释能力的大小。

在尽量减少原有信息损失的同时,选择合理的公因子个数将是一个长期讨论的问题。

(二)因子载荷阵协方差结构和潜在因子估计在金融学的套利定价理论中,多因子模型可以用于减少维度和估计协方差矩阵。

好的协方差矩阵估计量可以避免过度放大估计误差,协方差矩阵的最小和最大特征值对应于证券投资组合的极小和极大的方差,协方差矩阵的特征向量可用于优化投资组合。

应用因子模型的协方差矩阵在进行证券投资组合选择时,所包含的统计含义和实际意义比较明显,而估计高维协方差矩阵则相对比较困难,Fan、Fan、Lv研究了高维因子模型的维数对协方差矩阵估计的影响,并通过对样本协方差矩阵估计和基于因子模型估计进行比较,得出了协方差矩阵的逆矩阵更有利于揭示因子结构的结论[12];由于投资组合的优化配置和投资组合方差的减少都与协方差矩阵的逆矩阵有关,因此在优化投资组合配置中研究因子结构具有重要意义,但其风险评价效果欠佳,Hautsch和Kyj基于已实现协方差多重标度谱分解(Multi-scale spetral decomposition)分析高维动态协方差,将该原理运用于标准普尔500股票全局最小方差(GMV)投资组合的构建,检验基于协方差矩阵的投资组合样本外预测的效果[13]。

协方差矩阵结构的研究目前主要运用于投资组合的构建,已有研究主要从协方差矩阵的特征根和特征向量以及协方差矩阵的逆矩阵出发,而对于高维情形,协方差矩阵的估计受维度影响。

潜在因子(latent factor),又称隐性因子或公因子,潜在因子的估计主要是指因子载荷矩阵的估计。

一般通过对解释变量(协变量)的N×N阶非负定矩阵的特征分析进行因子载荷矩阵和因子过程的估计。

解释变量的个数(N)和时期长度(T)之间长度往往不一致,对于高维数据而言,如果N>T,可以采用Bai提出的最小二乘法进行潜在因子的估计[14];对于合适的变量个数N和非平稳因子估计,Pan和Yao通过求解几个非线性规划问题来解决[15];Lam,Yao、Bathia研究表明:当所有因子都比较强大并且因子载荷矩阵每一列的范数都是N 的1/2次方阶数时,因子载荷矩阵估计的弱一致范数与N的收敛比率独立,并运用这种估计方法进行了三支股票的隐含波动面建模分析[16]。

潜在因子的估计主要基于因子载荷矩阵的分析。

由于潜在因子既代表解释变量的共同行为,又是因子模型分析基础,高维数据分析中潜在因子的估计方法将决定协方差矩阵结构特征的刻画。

三、高维面板数据内部相依性的刻画面板数据内部相依包括序列相依和截面相依。

高维面板数据分析中,横截面相依对模型的估计和检验影响较大。

相关文档
最新文档