特征提取与特征选择

合集下载

特征提取与特征选择的区别与联系(四)

特征提取与特征选择的区别与联系(四)

特征提取与特征选择是机器学习和模式识别领域的两个重要概念,它们在数据分析和模型构建中扮演着至关重要的角色。

在本文中,我将探讨特征提取与特征选择的区别和联系,以及它们在实际应用中的作用。

特征提取是指从原始数据中提取对于解决问题有用的信息的过程。

在机器学习或模式识别任务中,通常需要从大量的原始数据中提取出最能够反映数据特点的特征,这些特征可以是数值型、文本型、图像型等。

特征提取的目的是将原始数据转化为更加易于处理和分析的形式,同时保留数据的重要信息。

常见的特征提取方法包括主成分分析(PCA)、独立成分分析(ICA)、小波变换等。

与特征提取不同,特征选择是指从原始特征中选择出最具有代表性、对模型构建有帮助的特征的过程。

在实际应用中,原始数据可能包含大量的特征,但并不是所有的特征都对于解决问题有用,有些特征可能是噪声或冗余的。

因此,通过特征选择可以剔除这些无用的特征,提高模型的准确性和泛化能力。

常见的特征选择方法包括过滤式特征选择、包裹式特征选择和嵌入式特征选择等。

特征提取和特征选择之间有着一定的联系。

特征提取可以看作是一种特征选择的方式,它不仅可以提取原始数据中的重要信息,还可以通过降维的方式来减少特征的数量。

而特征选择则是在原始特征的基础上进行筛选,保留最具有代表性的特征。

在实际应用中,常常会将特征提取和特征选择结合起来,以达到更好的效果。

特征提取与特征选择在实际应用中有着广泛的应用。

以图像识别为例,通过对图像进行特征提取和特征选择,可以将图像中的信息转化为机器可以理解和处理的形式,从而实现图像的自动识别和分类。

在自然语言处理领域,通过对文本进行特征提取和特征选择,可以从中提取出关键词、短语等信息,用于文本分类、情感分析等任务。

总的来说,特征提取和特征选择是机器学习和模式识别中至关重要的步骤,它们可以帮助我们从海量的数据中提取出最有用的信息,为模型构建提供有力的支持。

同时,特征提取和特征选择也是一门值得深入研究的学科,在不断的实践中不断完善和发展。

特征的提取和选择

特征的提取和选择

特征的提取和选择
特征提取和选择是机器学习中非常重要的环节,它既可以减少计算量,又可以提高模型的性能。

选择较好的特征可以让模型更加简单,更加容易
和快速的训练出最佳参数,从而使得模型更加精确、效果更好。

一般来说,特征提取和选择有以下几步:
1.特征提取。

特征提取关注的是利用现有特征生成新的特征。

它可以
是特征融合(如结合多个特征生成更强大的特征),也可以是特征变换
(如离散特征变换成连续特征)。

2.无关特征删除。

把没有帮助的特征删除,有助于减少模型的运行时间,提高模型的效果。

3.有关特征选择。

把与目标值有很强关联的特征选择出来,这些特征
被称为有关特征,它们可以帮助模型训练出更好的结果。

4.特征降维。

为了减少特征之间的相关性,减少计算量,与有关特征
相关性比较低的特征可以被删除。

5.特征加权。

调整特征的权重,使得有关特征拥有更大的影响力,从
而帮助模型更好的进行预测。

通过这种特征提取和选择的过程,可以把训练集中拥有相关性比较高
的有用特征保留下来,把没用的特征抛弃,有效的提高模型的性能。

第6章特征的提取与选择

第6章特征的提取与选择

第6章特征的提取与选择
特征提取与选择是机器学习和模式识别领域的一个重要组成部分,它
用于改善获得的特征的性能。

特征提取和特征选择是特征工程的基础,目
的是通过提取有用的信息,优化特征以提高模型的性能。

特征提取和特征
选择有助于减少模型需要考虑的特征数量,更有效地使用数据,减少计算量,提高模型表现,控制过拟合,提高模型可解释性和改善可靠性。

现有的特征提取和特征选择方法可以分为基于深度学习的方法和基于
浅层学习的方法。

基于深度学习的方法基于深度神经网络来提取特征,它
可以自动从原始数据中提取出多层特征,从而以最佳方式捕捉数据的复杂性,为模型提供更好的表示能力。

但是,这种方法往往会带来高昂的计算
成本,并受到训练数据量的限制。

基于浅层学习的方法则是从原始数据中提取、过滤、转换和变换特征,它仅仅是用统计工具来量化每一个变量,以及建立不同特征之间的关系,
并基于关系筛选出最有效的特征。

它没有深度学习方法的计算成本高及数
据量受限的缺点,但是往往缺乏深度学习方法的表示能力。

对于特征的提取和选择,应该从相关特征的概念,特征工程的思想,
特征提取的方法,特征选择的方法等方面考虑。

特征选择和特征提取

特征选择和特征提取

特征选择和特征提取特征选择(Feature Selection)和特征提取(Feature Extraction)是机器学习领域中常用的特征降维方法。

在数据预处理阶段,通过选择或提取与目标变量相关且有代表性的特征,可以有效提高模型的性能和泛化能力。

特征选择指的是从原始特征集合中选择一部分最相关的特征子集,剔除无关或冗余的特征,以减少计算成本和模型复杂度。

它可以分为三种类型的方法:过滤方法(Filter Method)、包裹方法(Wrapper Method)和嵌入方法(Embedded Method)。

过滤方法是利用统计或信息论的方法来评估特征与目标变量之间的相关程度,然后根据得分来选择特征。

常见的过滤方法包括互信息(Mutual Information)、方差选择(Variance Selection)和相关系数选择(Correlation Selection)等。

包裹方法是在特征子集上训练模型,通过观察模型性能的变化来评估特征子集的优劣,并选择性能最好的特征子集。

包裹方法的代表性算法有递归特征消除(Recursive Feature Elimination)和遗传算法(Genetic Algorithm)等。

嵌入方法则是将特征选择融入到模型的训练过程中,通过训练模型时的正则化项或特定优化目标来选择特征。

常见的嵌入方法有L1正则化(L1 Regularization)和决策树的特征重要性(Feature Importance of Decision Trees)等。

主成分分析是一种无监督学习方法,通过线性变换将原始特征投影到一组正交的主成分上,使得投影后的特征具有最大的方差。

主成分分析可以降低特征的维度,并保留原始特征的主要信息。

线性判别分析是一种有监督学习方法,通过线性变换找到一个投影方式,使得在投影空间中不同类别的样本更容易区分。

线性判别分析可以有效地提取类别间的差异和类别内的相似性。

因子分析则是一种概率模型,通过考虑变量之间的相关性而提取潜在的共享特征。

特征提取与特征选择的区别与联系(七)

特征提取与特征选择的区别与联系(七)

特征提取与特征选择的区别与联系特征提取和特征选择是机器学习和模式识别领域中常用的两种特征处理方法。

它们都是在原始特征空间中对特征进行加工和处理,以便更好地应用于后续的分类、聚类或回归任务。

虽然它们都是对特征进行处理,但是它们的目的和方法却有很大的不同。

下面我们将详细探讨特征提取与特征选择的区别与联系。

特征提取是指从原始特征中抽取出新的特征表示。

在实际应用中,原始特征往往具有冗余和噪声,通过特征提取可以将原始特征进行变换,得到更具有辨识度和可分性的特征表示。

常见的特征提取方法包括主成分分析(PCA)、线性判别分析(LDA)、独立成分分析(ICA)等。

这些方法通过线性或非线性的变换,将原始特征映射到一个新的特征空间中,以便更好地进行后续的分类或聚类任务。

特征选择则是从原始特征中选择出子集,以降低维度、提高模型的泛化能力和减少计算复杂度。

特征选择方法包括过滤式、包裹式和嵌入式三种。

过滤式方法通过对特征进行打分或排序,然后选择得分高的特征作为子集;包裹式方法则是将特征选择看作一个搜索问题,针对具体的学习算法进行搜索;嵌入式方法则是将特征选择融入到学习器的训练过程中。

这些方法都是通过评估特征子集的质量,选择对模型性能影响最大的特征子集。

特征提取和特征选择在目的和方法上存在着很大的不同。

特征提取的目的是通过变换原始特征,得到更具有可分性和辨识度的新特征表示,从而提高模型的性能;而特征选择的目的则是通过选择出对模型性能影响最大的特征子集,降低维度、提高泛化能力和减少计算复杂度。

从方法上看,特征提取是通过线性或非线性的变换,将原始特征映射到一个新的特征空间中;而特征选择则是在原始特征空间中进行子集选择,保留对模型性能影响最大的特征子集。

特征提取和特征选择虽然在目的和方法上有很大的不同,但是它们之间也存在着联系。

首先,特征提取可以看作是一种特殊的特征选择,它通过对原始特征进行变换和映射,得到一个新的特征表示,实质上也是在选择对模型性能影响最大的特征子集。

特征提取与特征选择的区别与联系

特征提取与特征选择的区别与联系

特征提取与特征选择的区别与联系在机器学习和数据挖掘领域,特征提取和特征选择是两个重要的概念。

它们在数据预处理和模型构建中起着至关重要的作用。

本文将探讨特征提取与特征选择的区别与联系,并从理论和实践角度进行深入分析。

1. 特征提取的定义与意义首先,我们来看看特征提取的定义与意义。

特征提取是指从原始数据中提取出具有代表性的特征,以便进行后续的数据分析和建模。

在实际应用中,原始数据往往包含大量的冗余信息和噪声,特征提取的目的就是通过某种算法或方法,对原始数据进行转换或映射,得到更加有用和有效的特征表示。

这样可以提高模型的准确性和泛化能力,同时减少计算复杂度和存储空间的消耗。

特征提取的方法有很多种,比如主成分分析(PCA)、独立成分分析(ICA)、线性判别分析(LDA)等。

这些方法都是通过对原始数据进行变换,得到新的特征表示,从而达到降维、去噪或增强特征的目的。

2. 特征选择的定义与意义接下来,我们再来看看特征选择的定义与意义。

特征选择是指从原始特征中选择出最具有代表性和重要性的特征子集,以用于后续的建模和预测。

在实际应用中,原始特征往往包含很多冗余和无关的信息,特征选择的目的就是找出对目标变量影响最大的特征,从而简化模型、提高预测性能和可解释性。

特征选择的方法有很多种,比如过滤式、包裹式和嵌入式等。

过滤式方法是直接对特征进行评估和排序,选择最高分的特征子集;包裹式方法是把特征选择看作一个搜索问题,通过试验不同的特征子集来找到最佳组合;嵌入式方法则是在模型训练过程中,通过正则化或增加惩罚项的方式来选择特征。

3. 特征提取与特征选择的区别特征提取与特征选择虽然都是对原始数据或特征进行处理,但它们在目的和方法上有着明显的区别。

首先,特征提取是通过某种变换或映射,得到新的特征表示,目的是降维、去噪或增强特征;而特征选择是从原始特征中选择出最具有代表性和重要性的特征子集,目的是简化模型、提高预测性能和可解释性。

特征提取与特征选择的区别与联系(Ⅲ)

特征提取和特征选择是机器学习和数据挖掘领域中常用的两个概念。

虽然它们都是为了从原始数据中提取出有用的特征以便进行进一步的分析和建模,但是它们之间有着明显的区别和联系。

首先我们来看看特征提取,特征提取是指从原始数据中提取出一些能够代表数据特征的特征。

这些特征可以是原始数据中的某些属性,也可以是对原始数据进行某种变换得到的新的特征。

特征提取的目的是将原始数据转化为更容易被机器学习算法处理的形式,同时保持数据的最重要的特征。

特征提取的方法有很多种,比如说主成分分析(PCA)、线性判别分析(LDA)、小波变换等。

这些方法可以将高维度的数据降维到低维度,从而减小了数据的复杂度,提高了机器学习的效率。

特征提取的过程可以看成是对数据的一种抽象和概括,它的目的是提取出对于目标任务最有用的信息。

而特征选择则是在特征提取的基础上进行的一个步骤。

特征选择是指从已有的特征中选择出对目标任务最有用的特征。

在特征提取的过程中,可能会产生大量的特征,有些特征可能对于目标任务没有太大的作用,甚至会影响到机器学习算法的性能。

因此需要进行特征选择,选择出对目标任务最有用的特征,去除那些冗余或者无关的特征。

特征选择的方法也有很多种,比如说过滤式特征选择、包裹式特征选择、嵌入式特征选择等。

过滤式特征选择是指通过对特征进行评估,选择出对目标任务最有用的特征,比如说使用相关系数或者信息增益进行特征评估。

包裹式特征选择是指在特征子集上训练出一个机器学习模型,通过模型的性能来评估特征的重要性。

嵌入式特征选择则是指在模型训练的过程中自动选择出对目标任务最有用的特征,比如说使用正则化方法。

特征提取和特征选择在实际应用中经常会同时进行,它们之间有着很大的联系。

特征提取会产生大量的特征,在特征选择的过程中,有时候也需要对特征进行一些变换和组合。

比如说,在包裹式特征选择的过程中,需要对特征子集进行训练,可能需要将特征进行某种组合,而这个过程有点类似于特征提取。

特征选择与特征提取

特征选择与特征提取特征选择主要是从原始特征集中选择出一部分最具有代表性的特征,以减少数据维度和消除冗余信息,同时提高模型的泛化性能和可解释性。

特征提取则是从原始数据中提取出一组新的特征集,用于替代原始特征集,以更好地表示数据的内在特点。

特征选择和特征提取可以单独使用,也可以结合使用。

特征选择通常从以下几个方面进行考虑:1. 特征重要性:通过模型训练的过程中,可以计算每个特征在模型中的重要性,根据重要性进行特征选择。

例如,可以使用随机森林、决策树等模型计算特征的Gini指数或信息增益,选择重要性较高的特征。

2.相关性分析:通过计算特征之间的相关性,选择与目标变量相关性较高的特征。

例如,可以使用皮尔森相关系数、互信息等方法进行相关性分析。

3.方差分析:通过计算特征的方差,选择方差较大的特征。

方差较大的特征表示特征值在样本间的差异较大,对于区分不同类别的样本有更好的能力。

4.正则化方法:通过添加正则化项,使得模型选择更少的特征。

例如,LASSO正则化可以使得特征的系数趋向于0,从而实现特征选择。

特征提取主要通过以下几种方法进行:2.独立成分分析(ICA):通过独立地解耦数据的非高斯分布特性,将原始数据分解为独立的子信号,从而实现特征提取。

3.稀疏编码:通过稀疏表示的方式,将原始数据表示为尽可能少的非零元素组成的代码,从而实现特征提取。

4.字典学习:通过学习一个字典,将原始数据表示为字典中原子的线性组合,从而实现特征提取。

特征选择和特征提取的选择与应用主要依赖于具体的数据集和问题。

在选择方法时需要考虑数据的性质、特征与目标变量的相关性、特征的可解释性以及模型的复杂度等因素。

总之,特征选择和特征提取是机器学习领域中常用的数据预处理技术,可以提高模型训练的效果和泛化能力。

在实际应用中,根据不同的需求选择适合的方法,对数据进行处理,提取最有用的特征。

人工智能开发技术中的特征选择与特征提取技巧

人工智能开发技术中的特征选择与特征提取技巧在人工智能开发技术的领域中,特征选择和特征提取是两个关键的环节,能够对数据进行处理和优化,从而提高机器学习算法的准确性和性能。

特征选择的目标是从原始特征中选择最具有代表性和区分性的子集,而特征提取则是将原始特征进行转换和组合,得到新的特征空间。

本文将介绍人工智能开发技术中的特征选择和特征提取技巧,并探讨它们在不同应用领域中的应用。

一、特征选择技巧特征选择在机器学习中有着重要的地位,它能够提高模型的泛化能力和训练的效率。

在进行特征选择时,需要考虑以下几个方面:1. 相关性分析:通过计算特征与目标变量之间的相关性,判断特征对目标变量的贡献程度。

常用的方法有皮尔逊相关系数和互信息等。

相关系数越大,则特征对目标变量的相关性越强,应优先选择。

2. 嵌入式方法:在特征选择的训练过程中,将特征选择过程嵌入到机器学习算法中。

常用的方法有L1正则化和决策树等。

L1正则化能够使得某些特征的系数为0,从而实现特征选择的效果。

3. 过滤式方法:在特征选择之前,通过统计量或某种评价函数对特征进行排序,选择排名靠前的特征。

常用的过滤式方法有相关系数法、卡方检验和相关矩阵等。

二、特征提取技巧特征提取是将原始特征进行转换和组合,从而得到新的特征空间。

特征提取的目标是减少特征空间的维度,同时保留原始数据的关键信息。

在进行特征提取时,需要考虑以下几个方面:1. 主成分分析(PCA):PCA是一种经典的降维方法,通过线性变换将原始特征投影到新的低维子空间中。

这样可以保留原始数据的主要信息,并且降低特征空间的维度。

2. 独立成分分析(ICA):ICA是一种盲源分离方法,通过寻找数据中的独立成分,将原始特征进行线性组合。

这样可以从原始数据中分离出相互独立的特征。

3. 非负矩阵分解(NMF):NMF是一种非线性的降维方法,通过将原始特征分解为非负的基向量和系数矩阵。

这样可以得到原始数据的非负线性表示,从而获得更加有意义和准确的特征表示。

模式识别之特征选择和提取


p( X | i ) 与 p( X | j ) 相差愈大, J ij 越大。
当 p( X | i ) p( X | j ) ,两类分布密度相同, Jij 0 。
(3)错误率分析中,两类概率密度曲线交叠越少,错误率越小。
p(x | i )P(i )
p(x | 2 )P(2 )
p(x | 1 )P(1 )
Jd
1 2
c i 1
P(i
)
c j 1
P(
j
)
1 ni n
j
ni k 1
nj l 1
D2
(
X
i k
,
X
j l
)
(5-8)
式中, P(ωi ) 和 P( j ) :i 和 ω j 类先验概率;c:类别数;
X
i k

i
类的第
k
个样本;
X
j l

ω
j
类的第
l
个样本;
ni 和 n j :i 和 ω j 类的样本数;
② 特征选择:将坐标系按逆时针方向做一旋转变化,或物体按 顺时针方向变,并合适平移等。根据物体在 轴上投影旳x坐2' 标值 旳正负可区别两个物体。
——特征提取,一般用数学旳措施进行压缩。
5.2 类别可分性测度
类别可分性测度:衡量类别间可分性旳尺度。
类别可
分性测 度
空间分布:类内距离和类间距离 随机模式向量:类概率密度函数 错误率 与错误率有关旳距离
D2
(
X
i k
,
X
j l
)

X
i k

X
j l
间欧氏距离的平方。
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

独立
相关系数:
Cov x, y D x D y
P x, y p x p y
两个随机变量不相关,它 们不一定相互独立; 两个随机变量相互独立, 它们一定不相关;
0
不相关 完全相关
1 a, b
Py a bx 1
Mixture Sources
x1 a11 x2 a21 x a 3 31
a12 a22 a32
a13 s1 a23 s2 a33 s3
8.2.3 其它特征提取方法简介
概率主成分分析(PPCA):
1
1 1
-1 若只选择第1个特征
1 若只选择第2个特征
1
-1 1
1
-1
1
1
8.3.2 特征选择面临的问题及解决之道
特征选择面临的两个问题: (1)有一个选择的标准。即要选出使某一可分性达最大的一组特征; (2)找一个较好的算法。即要在允许的时间内找出最优的一组特征;
vi
y ji
为提取的第i个主方向 是测试样本x j 的第i个主成分(特征)
8.2.1 主成分分析(续)
例:已知三个样本的坐标如下图所示,试用主成分分析方法进行特征提取。
1 x 零均值化: 1 1 2 x2 3 3 x3 2 1 x1 1 0 x2 1 1 x3 0
50 100
150
200

250 50
256×256 抽样
100
150
200
250
1
5
10
特征提取
1
15
20
提取的特 征个数
11
25
30 5 10 15 20 25 30
1024
32×32 =1024
(原始特征)
8.1.1 特征提取的必要性(续)
例3:指纹识别
指纹图象虽然很复 杂,但真正能用于识 别的特征并不多;
(4)随机过程
(5)多元分析 “学以致用”;
PPC (K. Y. Chang, 1998,)
BR (Banfield and Raftery, 1992) 主曲线 T (Tibshirani, 1992) D (Delicado, 2001) PCA
K (Ké gl, 1999)
RPM (Smola, 1999)
HS (Hastie and Stuetzle, 1988)
or
Negentropy准则:
J y H y gauss H y
求取 原则
算法
max D y
max
J y
H y p y log p y dy
特征值 分解
非线性数 值优化
8.2.2 独立成分分析(续)
例:用独立成分分析分离混合信号
1 2 3 4 5
0 1 0 1 0 0 1
转化成列向量
1 2 3
特征提取
“1”
1
0
0 35
1 33 0 34 0 35
x1 x x2
模式“1”的图片
(原始特征)
通过直接测量得到的特征称为原始特征;
8.1.1 特征提取的必要性(续)
例2:表情识别
原始特征过多,不利于识别;
将这些特征找出来 并进行合理表示就是 特征提取的任务;
8.1.2 特征提取的定义与必要性
定义:
特征提取(Feature Extraction): 用映射(或变换)的方法把原始特征转换为数量较少的 新特征的过程。
必要性:
(1)过多的原始特征使得模式识别的计算复杂度过高; (2)在原始特征中包含有对分类没有帮助甚至有害的冗 余信息,需要去除;
GTM (Bishop, 1998, generative topographical mapping)
8.2.3 其它特征提取方法简介(续)
主成分分析
混合概率主成分分析
主曲线分析
三种特征提取方法比较
在三种特征提取方法中,主曲线分析方法效果最好;
8.2.3 其它特征提取方法简介(续)
例:用主曲线提取手写数字特征
不同的主曲线提取方法对比
用主曲线提取的特征
人工提取上述特征容易,用计算机提取上述特征困难些;
8.2.3 其它特征提取方法简介(续)
核主成分分析(KPCA):
R
KPCA: 在核空间 中进行主 成分分析

F
R
F
(x1 )
(x 2 )
v
v
PCA
KPCA
8.2.3 其它特征提取方法简介(续)
a12 s1 a22 s2
矩阵形式: x As
8.2.2 独立成分分析(续)
与主成分分析的区别
PCA ICA
Kurtosis 准则:
Kurt y E y 3 E y
4

2

2
投影
y vT x
y vT x
max Kurt y
常用特征选择方法 最优搜索算法; (教材P199) 次优搜索算法; (教材P202)
特征选择的几种新方法:(教材P205) (1)模拟退火算法; (2)Tabu搜索算法; (3)遗传算法;
附:向大家推荐的10门数学课:
(1)最优化理论
(2)矩阵论 (3)离散数学 (6)计算方法 (7)数学物理方程 (8)微分方程数值解 (9)模糊数学 (10)泛函分析 数学是解决问题的利器;
8.2.1 主成分分析(续)
物理意义(三维情形):
若样本呈椭
球状分布,则三 个主方向分别是 椭球的三个轴。
8.2.1 主成分分析(续)
源代码解析: function [v,latent,explained,xtest_project]=lpca(x,xtest,numpc) % % % % x xtest v numpc - 学习样本 - 测试样本 - 提取的特征向量 - 提取的特征数目
1 N 保证 xi 0 N i 1
[n,m] =size(x); [ntest,mtest]=size(xtest); avg = mean(x);
8.2.1 主成分分析(续)
centerx = (x - avg(ones(n,1),:)); avgtest=mean(xtest); centerxtest=(xtest-avg(ones(ntest,1),:)); [U,latent,v] = svd(centerx./sqrt(n-1),0); latent = diag(latent).^2;
8.2
常见特征提取方法
8.2.1 主成分分析
前提:
1 N xi 0 N i 1
(首先检查样本的均值是否为0, 若不为0,则进行零均值化)
1 N T 步骤: (1)求协方差矩阵: C xi xi N i 1
(2)协方差矩阵的特征值分解: Cvi i vi
T y v (3)投影: ji i xj
8.2.3 其它特征提取方法简介(续)
混合概率主成分分析(MPPCA):
PPCA
PPCA使得PCA具有概率背景;
MPPCA
MPPCA具备更精细的特征分析功能;
8.2.3 其它特征提取方法简介(续)
主曲线(PC)与主曲面(PS)分析:
HS (Hastie and Stuetzle, 1988)
(2)特征值 分解: (1)求协 方差矩阵:
பைடு நூலகம்
1 N C xi xT i N i 1
Cvi i vi
(3)投影:
xtest_project=centerxtest*v(:,1:1:numpc);
y vT i x
8.2.2 独立成分分析
预备知识:不相关与独立
不相关 已知两个随机变量 x 和 y ,有
主成分分析
提取的特征间不相关;
独立成分分析
提取的特征间相互独立;
8.2.2 独立成分分析(续)
研究动机:鸡尾酒问题
s1
x1 x2
Speaker (Sources) Recorder
已知: x1 未知:
a11 a21
x2
a12 a22
s2
待求: s1
s2
x1 a11 x2 a21
Principal plane
x
PCA
x wz ε
先验:
p z ~ N 0, I
d / 2
2 给定: p x | z 2
exp x wz / 2 2

2

x
后验: p z | x ~ N x , M
2
x
Latent plane z PPCA
PPS (K. Y. Chang, 2001, probabilistic principal surfaces) 主曲面 APS (LeBlanc, 1994, adaptive principal surfaces) SOM (Kohonen, 1995, self-organizing maps)
第8章 特征提取与特征选择
Chapter 8: Feature extraction and feature selection
本章主要内容
8.1
8.2 8.3
特征提取的基本概念
常见特征提取方法 特征选择的基本概念
(熟悉)
(重点)
(熟悉)
相关文档
最新文档