哈工大模式识别第四章第五章
哈工大模式识别课件

1. Richard Duda, Peter Hart, David Stork, Pattern Classification, 2nd edition, John Wiley, 2001 2. 《模式分类》,机械工业出版社,Richard O. Duda 3. 《模式识别》清华大学出版社,边肇祺,张学工
应用领域
小结
本章小结
【小结】
(1)模式识别是每时每刻都发生的,重点强调分类。 (2)具有广泛的应用。 (3)对控制科学与工程学科的意义 (4)发展历程 (5)重要研究期刊 (6)参考书目
【4.发展历程】
1. 模式识别诞生于20世纪20年代; 2. 随着40年代计算机的出现,50年代人工智能的兴起, 模式识别在60年代迅速发展成一门学科; 3. 经过几十年的发展目前取得了大量的成果,在很多地 方得到应用。目前一直是热门的学科。
【5.重要期刊】
1. IEEE Transaction on Pattern Analysis and Machine Intelligence,PAMI 2. Pattern Recognition 3. Pattern Recognition Letter 4. 模式识别与人工智能
【6.参考书目】
它利用了训练样本的信息就可以认为学习,学习的目的是指 利用某种算法来降低由于训练样本的差异导致的分类误差。
学习的分类:
监督学习:存在一个教师信号,对训练样本集的每个输入样本能提供 无监督学习:没有显示的教师指导整个训练过程。(图像检索) 类别标记和分类代价并寻找能够降低总体代价的方向。(人脸识别) 半监督学习:半监督学习是利用少部分标记数据集及未标记样本进 行学习的主流技术。(如医学图像)
【性能评价】
哈工大模式识别课件.pptx

Duda
《模式识别》(第二版),清华大学出版社,边
肇祺,张学工;
模式识别 – 绪论
期刊
IEEE Transaction on Pattern Analysis and Machine Intelligence,PAMI;
Pattern Recognition; Pattern Recognition Letter; 模式识别与人工智能;
x
2
1
2
n
exp
1 2
n n
2
d
f , n
2 n
exp
1 2
x
n 2
2
2 n
f ,n
exp
1 2
2
2 n
2 2 n
2 n
x
2
n
2
2 n
2
du
模式识别 – 绪论
3.3期望最大化算法(EM算法)
EM算法的应用可以分为两个方面:
1. 训练样本中某些特征丢失情况下,分布参数的最大 似然估计;
特征提取与选 择
识别结果 模式分类
分类 训练
分类器设计
模式识别 – 绪论
六、模式识别问题的描述
给定一个训练样本的特征矢量集合:
D x1, x2, , xn, xi Rd
分别属于c个类别:
1,2, ,c
设计出一个分类器,能够对未知类别样本x进行分类
y g x, Rd 1, ,c
模式识别 – 绪论
率满足正态分布,即:
px N , 2
p
N
0
,
2 0
模式识别 – 绪论
哈工大模式识别课程期末总结分解

【最大似然估计】
多元参数
【最大似然估计】
例子(梯度法不适合):
1 p( x | ) 2 1 0
,1 x 2 其它
1 p ( x , x ,..., x | , ) N 1 2 N 1 2 l ( ) 2 1 0
p( | x)
p( x | ) p( )
p( x | ) p( )d
p( , x) p( | x) p( x) p( x | ) p( )
R
E
d
ˆ, ) p ( | x) p ( x)d dx (
ˆ, ) p( | x)d dx d p( x) (
h( x) ln l ( x) ln p( x | 1 ) ln p( x | 2 ) ln P(1 ) P(2 )
x 1
x 2
【基于最小错误率的贝叶斯决策】
【基于最小错误率的贝叶斯决策】
【基于最小风险的贝叶斯决策】
概念
决策 决策空间 前面所讲的错误率达到最小。在某些实际应用中,最小错 误率的贝叶斯准则并不适合。以癌细胞识别为例,诊断中如 果把正常细胞判为癌症细胞,固然会给病人精神造成伤害, 但伤害有限;相反地,若把癌症细胞误判为正常细胞,将会 使早期的癌症患者失去治疗的最佳时机,造成验证的后果。
【基于最小风险的贝叶斯决策】
数学描述
【基于最小风险的贝叶斯决策】
条件期望损失:
R(i | x) EP( j | x), i 1, 2,..., a
j 1 c
期望风险:
R R ( ( x) | x) p ( x)dx
目的:期望风险最小化
哈工大 模式识别总结

非监督学习方法
与监督学习 方法的区别
主要任务:数据分析 数据分析的典型类型:聚类分析 直接方法:按概率密度划分 投影法 基 于 对 称性 质 的 单 峰 子集 分 离方法 间接方法:按数据相似度划分 动态聚类 方法 C-均值 算法 ISODATA 算法 分级聚类 算法
第三章 判别函数及分类器的设计
(1)非参数分类决策方法的定义;与贝叶斯决策方法进行比 较,分析非参数分类方法的基本特点。 (2)线性分类器。说明这种分类器的定义及其数学表达式, 进一步分析数学表达式的各种表示方法,从而导出典型的线 性分类器设计原理:Fisher准则函数、感知准则函数。 (3)非线性判别函数。从样本的线性不可分例子说明线性判 别函数的局限性,从而引入分段线性判别函数概念及相应计 算方法。 (4)近邻法的定义及性能分析。从近邻法的优缺点导入改进 的近邻法;
非参数判别分类方法原理----有监督学习方法
线性分类器
近邻法: 最近邻法,K近邻法
Fisher 准则
扩展:分段 线性分类器 方法实现非 线性分类器
感知准则 函数
多层感知器 (神经网络)
支持向量机
SVM
改进的近邻法: --剪辑近邻法 --压缩近邻法
特征映射方法实 现非线性分类器
错误修正算法 可实现最小分段数的局部训练算法
特征空间优化:概念、目的及意义
两种优化方法:特征选择、特征提取 评判标准:判据 ------基于距离的可分性判据 -----基于概率的可分性判据 特征提取 特征选择 KL变换 产生矩阵 包含在类平 均信息中判 别信息的最 优压缩 最优方法 分支 定界 算法 次优方法 顺序前 进法, 广义顺 序前进 法 顺序后 退法, 广义顺 序后退 法
模式识别讲义_(80pp)

第一章 绪论1.1模式和模式识别模式识别是一门很受人们重视的学科。
早在30年代就有人试图以当时的技术解决一些识别问题,在近代,随着计算机科学技术的发展和应用,模式识别才真正发展起来。
从60年代至今,在模式识别领域中已取得了不少成果。
它的迅速发展和广泛应用前景引起各方面的关注。
模式识别属于人工智能范畴,人工智能就是用机器去完成过去只有人类才能做的智能活动。
在这里,“智能”指的是人类在认识和改造自然的过程中表现出来的智力活动的能力。
例如:通过视觉、听觉、触觉等感官接受图象、文字、声音等各种自然信息去认识外界环境的能力;将感性知识加工成理性知识的能力,即经过分析、推理、判断等思维过程而形成概念、建立方法和作出决策的能力;经过教育、训练、学习不断提高认识与改造客观环境的能力‘对外界环境的变化和干扰作出适应性反应的能力等。
模式识别就是要用机器去完成人类智能中通过视觉、听觉、触觉等感官去识别外界环境的自然信息的那些工作。
虽然模式识别与人工智能关系很密切,但是发展到现在,它已经形成了独立的学科,有其自身的理论和方法。
在许多领域中,模式识别已有不少比较成功的实际应用。
模式的概念:模式这个概念的内涵是很丰富的。
“我们把凡是人类能用其感官直接或间接接受的外界信息都称为模式”。
比如:文字、图片、景物;声音、语言;心电图、脑电图、地震波等;社会经济现象、某个系统的状态等,都是模式。
模式识别:模式识别是一门研究对象描述和分类方法的科学。
如,我们要听某一门课,必须做以下识别:1)看课表—文字识别;2)找教室和座位—景物识别;3)听课—声音识别。
再比如,医生给病人看病:1)首先要了解病情;问2)再做一些必要的检验;查3)根据找到的能够诊断病情的主要特征,如体温、血压、血相等,做出分类决策,即诊断。
对于比较简单的问题,可以认为识别就是分类。
如,对于识别从“0”到“9”这十个阿拉伯数字的问题。
对于比较复杂的识别问题,就往往不能用简单的分类来解决,还需要对待识别模式的描述。
模式识别课件 第五章p4

第五章非线性分类器Ø支持向量机5.5 支持向量机ØVapnik等人在多年研究统计学习理论基础上对线性分类器提出了另一种设计最佳准则。
其原理也从线性可分说起,然后扩展到线性不可分的情况。
甚至扩展到使用非线性函数中去,这种分类器被称为支持向量机(Support Vector Machine,简称SVM)。
Ø支持向量机在设计时,需要用到条件极值问题的求解,因此需用拉格朗日乘子理论,但对多数人来说,以前学到的或常用的是约束条件为等式表示的方式,但在此要用到以不等式作为必须满足的条件,此时只要了解拉格朗日理论的有关结论就行。
5.5 支持向量机线性可分条件下的支持向量机最优分界面ØSVM的思想:由于两类别训练样本线性可分,因此在两个类别的样本集之间存在一个间隔。
对一个二维空间的问题用下图表示。
线性可分条件下的支持向量机最优分界面Ø其中H是将两类分开的分界面,而H1与H2与H平行,H是其平分面,H1上的样本是第一类样本到H最近距离的点,H2的点则是第二类样本距H的最近点。
5.5 支持向量机HH1H2线性可分条件下的支持向量机最优分界面Ø由于这两种样本点很特殊,处在间隔的边缘上,因此再附加一个圈表示。
这些点称为支持向量,它们决定了这个间隔。
HH 1H 25.5 支持向量机线性可分条件下的支持向量机最优分界面Ø从图上可以看出能把两类分开的分界面并不止H这一个,如果略改变H的方向,则根据H1、H2与H平行这一条件,H1、H2的方向也随之改变,这样一来,H1与H2之间的间隔(两条平行线的垂直距离)会发生改变。
Ø显然使H1与H2之间间隔最大的分界面H是最合理的选择,因此最大间隔准则就是支持向量机的最佳准则。
5.5 支持向量机5.5 支持向量机最佳线性分割线?高维空间?5.5 支持向量机寻找各自点所在的凸集中的最近点dc5.5 支持向量机最佳分割面dc5.5 支持向量机最优线性分离:最大化间隔最优分类超平面:它能够将训练样本没有错误的分开,并且两类训练样本中离超平面最近的样本与超平面之间的距离最大间隔(M a r g i n):两类样本中离分类面最近的样本到分类面的距离间隔为了将这个准则具体化,需要用数学式子表达。
模式识别习题及答案

第一章 绪论1.什么是模式?具体事物所具有的信息。
模式所指的不是事物本身,而是我们从事物中获得的___信息__。
2.模式识别的定义?让计算机来判断事物。
3.模式识别系统主要由哪些部分组成?数据获取—预处理—特征提取与选择—分类器设计/ 分类决策。
第二章 贝叶斯决策理论1.最小错误率贝叶斯决策过程? 答:已知先验概率,类条件概率。
利用贝叶斯公式得到后验概率。
根据后验概率大小进行决策分析。
2.最小错误率贝叶斯分类器设计过程?答:根据训练数据求出先验概率类条件概率分布 利用贝叶斯公式得到后验概率如果输入待测样本X ,计算X 的后验概率根据后验概率大小进行分类决策分析。
3.最小错误率贝叶斯决策规则有哪几种常用的表示形式? 答:4.贝叶斯决策为什么称为最小错误率贝叶斯决策?答:最小错误率Bayes 决策使得每个观测值下的条件错误率最小因而保证了(平均)错误率 最小。
Bayes 决策是最优决策:即,能使决策错误率最小。
5.贝叶斯决策是由先验概率和(类条件概率)概率,推导(后验概率)概率,然后利用这个概率进行决策。
6.利用乘法法则和全概率公式证明贝叶斯公式答:∑====mj Aj p Aj B p B p A p A B p B p B A p AB p 1)()|()()()|()()|()(所以推出贝叶斯公式7.朴素贝叶斯方法的条件独立假设是(P(x| ωi) =P(x1, x2, …, xn | ωi)⎩⎨⎧∈>=<211221_,)(/)(_)|()|()(w w x w p w p w x p w x p x l 则如果∑==21)()|()()|()|(j j j i i i w P w x P w P w x P x w P 2,1),(=i w P i 2,1),|(=i w x p i ∑==21)()|()()|()|(j j j i i i w P w x P w P w x P x w P ∑===Mj j j i i i i i A P A B P A P A B P B P A P A B P B A P 1)()|()()|()()()|()|(= P(x1| ωi) P(x2| ωi)… P(xn| ωi))8.怎样利用朴素贝叶斯方法获得各个属性的类条件概率分布?答:假设各属性独立,P(x| ωi) =P(x1, x2, …, xn | ωi) = P(x1| ωi) P(x2| ωi)… P(xn| ωi) 后验概率:P(ωi|x) = P(ωi) P(x1| ωi) P(x2| ωi)… P(xn| ωi)类别清晰的直接分类算,如果是数据连续的,假设属性服从正态分布,算出每个类的均值方差,最后得到类条件概率分布。
哈工大模式识别课程5非线性判别函数

【局部训练方法】
参加训练的局部样本集由两类样本 组成。这些区域称之为“交遇区”,局部 组成。这些区域称之为“交遇区” 训练法就是基于交遇区内样本进行设计的 。 要解决的几个问题是: 要解决的几个问题是: (1) 如何从样本集中找到“交遇区” 如何从样本集中找到“交遇区” ; (2)如何利用“交遇区”中的样本设计 (2)如何利用“交遇区” 如何利用 线性分类器; 线性分类器; (3)如何进行分类决策。下面就这些问 (3)如何进行分类决策。 如何进行分类决策 题分别进行讨论。 题分别进行讨论。 。
二次判别函数
【 定义】
二次判别函数的一般表达式: 二次判别函数的一般表达式:
g ( x) = x Wx + w x + ω0
T T
决策面为超二次曲面,包括超球面、超椭球面、超双曲面等。 决策面为超二次曲面,包括超球面、超椭球面、超双曲面等。
【二次判别函数的构造方法】
例如,一类样本分布成团,另一类均匀散布在其周围: 例如,一类样本分布成团,另一类均匀散布在其周围:
【局部训练方法】
算法步骤 步骤1 步骤1:产生初始超平面 步骤2:初始决策面最佳化 步骤2 步骤3 步骤3:新决策面的产生与最佳化
【局部训练方法】
在使用上述方法得到一组超平面作为分段线性分类器的分界 面后,仅对交遇区的样本集进行性能检测有时不能发现存在的问 面后, 需要使用全体样本对其进行性能检验, 题,需要使用全体样本对其进行性能检验,观察其能否对全体样 本作出合理的划分。
【基于距离的分段线性判别函数】
§4.1.1 概念的提出
正态分布条件下, 正态分布条件下,两类别 问题在各特征统计独立、 问题在各特征统计独立、同方 且先验概率相等情况下, 差、且先验概率相等情况下, 最小错误率决策可按最小距离 决策, 决策,即
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2、J5判据下的特征提取
▪ 由于 阵U使得:
和 是对称矩阵,因此,存在矩
▪ 则:
37
或
即: 是
的本征值矩阵
38
J5的另一种形式
又
设 则:
的本征值矩阵是
39
4.3.2 按概率距离判据提取特征
▪ 设原始特征为Y,而经变换后的特征为X,两 者之间有映射关系 X=WTY
▪ 则原空间中一矩阵A经映射后为:A*=WTAW ▪ 映射后概率距离判据:
即从总体上说同类物体内各样本由于具有共性,因 此类内样本间距离应比跨类样本间距离小。 ▪ Fisher准则(也可看成是特征提取方法)正是以使类间 距离尽可能大同时又保持类内距离较小这一种原理 为基础的。 ▪ 同样在特征选择与特征提取中也使用类似的原理, 这一类被称为基于距离的可分性判据。
12
• 两类之间的距离:ω1任一点与ω2中任一点的距离 和的平均。
的秩是一,换句话说
它只有一个非零本征值,W是D×1矩阵,是一个
向量,求该向量需解
35
▪ 利用W向量对原始的两类两维样本进行线性 变换得到新的一维分布,特征空间从二维降 到一维,并满足J2判据。
▪ 该特征空间实质上就是对应于Fisher准则求 得的线性分类器的法向量。
▪ 如果讨论的是多类别C问题,则优化后的维 数至多为类别数减一(C-1)。
50
二、用散度准则JD的特征提取
只有两类时:
51
最佳W是对应下列次序的本征值对应的本 征向量
52
▪ 例:有两类样本:
W1: x11=(0,0,0)T,X12=(1,0,0)T,X13=(1,0,1)T,X14=(1,1,0)T W2: x21=(0,0,1)T,X22=(0,1,0)T,X23=(0,1,1)T,X24=(11,1)T 试利用散度JD降低维数。
25
若 则
26
4.3 特征提取
▪ 4.3.1 按距离度量的特征提取方法 ▪ 基于距离的可分性判据的实质是Fisher准则
的延伸,即综合考虑不同类样本的类内聚集 程度与类间的离散程度这两个因素。 ▪ 这种判据的优化体现出降维后的特征空间较 好地体现类内密集、类间分离的要求。
27
按欧氏距离度量的特征提取方法
2. 对所有X都有p(X|ω1)=p(X|ω2),则两类就完全不可分。
完全可分
重合,完全不可分
18
• 任何函数
• 若满足下列条件,则用于做判据: 1、Jp≥0 2、当两类完全不交叠时,Jp取最大值 若对所有x有:p(X| ω 2)≠0时,p(x| ω 1)=0,则 Jp=max 3、当两类分布相同时,Jp=0 若:p(X| ω 2)=p(x| ω 1),则Jp=0
28
1、J2判据下的特征提取
▪ 将原特征空间X(D维)通过线性映射Y=WTX降维到特 征空间Y中,若X空间的类内离散度矩阵和类间离散 度矩阵分别为SW ,Sb;
▪ 则按J2判据的的最后特征提取矩阵W是按如下方式 构造的:
▪ 若矩阵 SW-1Sb 的本征值λi按大小顺序列为
▪ 则选择前d个本征值所对应的本征向量组成变换矩 阵WD*d,都可使这些判据J2(W)达到最大值。
可提供ωi对ωj的可分性信息。 如果对某个X,当p(X|ω1)=p(X|ω2) 时,则lij=0 , 反之若两者差异越大,则lij的绝对值也大。
23
对整个特征空间概率分布的差异程度作出评价,可将对 ωi类及对ωj 的平均可分性信息定义为
总的平均可分信息则可表示成散度
24
3、正态分布时可分性判据
若 则 一维:
哈工大模式识别第四章 第五章
2020年4月24日星期五
§4.1 基本概念
▪ 如何确定合适的特征空间是设计模式识别系统另一 个十分重要,甚至更为关键的问题。
▪ 如果所选用的特征空间能使同类物体分布具有紧致 性,即各类样本能分布在该特征空间中彼此分割开 的区域内,这就为分类器设计成功提供良好的基础 。
▪ 反之,如果不同类别的样本在该特征空间中混杂在 一起,再好的设计方法也无法提高分类器的准确性 。
▪ 这一章要讨论的问题就是特征空间如何设计的问题
2
如何构造一个特征空间,即对要识别的事 物用什么方法进行描述、分析的问题?
▪ 1、物理量的获取与转换(原始测量) 这是指用什么样的传感器获取电信号,如摄取
景物则要用摄像机。可以称之为原始信息(原始测 量,得到测量空间)。 ▪ 2、描述事物方法的选择与设计(特征形成)
在得到了原始信息之后,要对它进一步加工, 以获取对分类最有效的信息。
设计所要信息的形式是十分关键的。
3
例 用RGB颜色空间和HSI颜色空间
▪ 右边是原始图像,左边是用HSI空间描述的同一图 像(但是为了显示出来,用H对应R,S对应G,I对应 B,然后再以RGB的方式显示出来
JC(X)= JC(W TY)= JC(W) JD(X)=JD (WTY)= JD (W)
40
一、正态分布下基于Jc的特征提取
▪ 当两类都是正态分布时:
41
42
是 W是其本征向量
的本征值矩阵
可证,只有一个非零本征值,此时,W是一维的:
45
46
47
根据Jc对非奇异变换的不变性,W即是Σ2-1Σ1 的本征向量。此时:
7
§4.2 类别可分离性判据
▪ 对原特征空间优化,就要对优化结果进行评价 ▪ 实际的评价方法,是对系统性能进行测试,测试指
标主要有正确率、计算速度、 存储容量等。 ▪ 本章讨论的评价方法:目的在于找出对特征空间进
行优化的具体算法。 ▪ 对特征空间进行优化是一种计算过程,它的基本方
法仍然是模式识别的典型方法:找到一种准则(或称 判据,通常用一种式子表示),以及一种优化计算 方法,使这种准则达到一个极值。
▪ 另一种用两者间的比值,称为散度。
21
1、Bhattacharyya距离 和Chernoff界限
• Bhattacharyya距离
• 显然,当p(X|ω1)=p(X|ω2) 时,JB=0;而当两者完 全不交迭时JB为无穷大
• Chernoff界限
22
2、散度
另一种常用的基于概率距离度量的判据是利用似然比 或对数似然比。 对两类问题,对数似然比为:
• (4)单调性:加入新的特征时,判据不减小
10
几种常用的可分性判据
▪ 以计算样本在特征空间离散程度为基础的准 则,称为基于距离的可分性判据(重点)
▪ 基于概率密度分布的可分性判据。▪ 基于熵函数的可分性判据(不讲)
11
一、基于距离的可分性判据
▪ 基于距离的度量是用来进行分类的重要依据。 ▪ 因为一般情况下同类物体在特征空间呈聚类状态,
31
▪ 上式表明D维特征空间中,J2判据的值是矩阵 的全部本征值之和。
▪ 令上式中WT=Ud =[u1,u2,….,ud] ▪则
▪ 则:如果矩阵
的本征值按大小顺序列为
▪ 那么由对应于d个最大的本征值的本征向量所组成的矩阵 W(D×d),就能使所得到的d维特征满足J2判据最大的要求 。
▪ 此结论对J4判据也适用
8
判据
▪ 理想的情况是与计算错误率有关的判据 ▪ 直接反映错误率的是贝叶斯公式,在实际中
运用有困难 ▪ 采用其他判据
9
可分性判据应满足的要求
• (1)与错误率有单调关系,这使判据取最大值时 错误率也较小
• (2)当特征独立时
•
有可加性:
(Jij是第i类与第j类的可分性准则) • (3)度量特性:
▪ 基于距离可分性判据的特征优化过程是通过 一个线性变换实现的。
▪ 设在原特征空间一个样本向量表示成X(D维) 而在优化特征空间中,样本向量表示成Y(d维 )而X与Y之间的关系是: Y=WTX
▪ 其中W是一个D×d维矩阵(d<D) ▪ 目的:利用判据找出一种线性变换W,它可
实现这种判据J(Y)=J(W)的极值化。
▪
= tr[SW-1SbWT(WT)-1] = tr[SW-1Sb]=J2(X)
▪ 设SW-1Sb的本征值为λ1 >λ2 >λ3 >……>λD ,对应的 本征向量矩阵为U=[u1,u2,….,uD]
▪ 则 UT SW-1Sb U =Λ, 其中: ▪ 令W=UT=U-1
▪ 则J2(W)= tr[UTSW-1SbU] ▪
4
3、特征空间的优化
▪ 这个层次的工作发生在已有了特征的描述方法之后 ,也就是已有了一个初始的特征空间,如何对它进 行改造与优化的问题。一般说来要对初始的特征空 间进行优化是为了降维。即初始的特征空间维数较 高。能否改成一个维数较低的空间,称为优化,优 化后的特征空间应该更有利于后续的分类计算,这 就是本章着重讨论的问题。
48
为使Jc最大,应选择满足如下关系的d个本征 值对应的本征向量组成的矩阵。
49
步骤
▪ 不同s,结果不同。 ▪ 1、s=0.5,得:Vi,i=1,2,…,d。 ▪ 2、根据Vi,i=1,2,…,d,求最优S(使Jc最大) ▪ 3、求最佳Vi,i=1,2,…,d ▪ 4、重复2、3直至获得一组稳定Vi
• 多类:各类之间的平均距离
•
:ωi任一点xk(i)与ωj中任一点xj( j)的距离
• Pi, Pj是第i类和第j类的先验概率
• 度量类内、类间的距离,可用不同方法,如欧氏距 离等。
13
欧氏距离下的可分性判据
欧氏距离: 每类均值:
所有样本集总均值: 平均距离:
(判据)
令:
则得判据的矩阵形式:
14
▪ 上述公式是有限样本集,
▪ X只是Y的一个子集,每个分量xi必然能在原 特征集中找到其对应的描述量xi=yj。