线性分类器及非线性分类器-OK
模式识别基本词汇名词解释

基本词汇
• 先验概率:预先已知的或者可以估计的模式识别系 统位于某种类型的概率。
• 类条件概率密度函数:系统位于某种类型条件下模 式样本X出现的概率密度分布函数。
• 后验概率:系统在某个具体的模式样本X条件下位 于某种类型的概率。
• 贝叶斯公式:两个事物X与w联合出现的概率称为联
合概率。利用该公式可以计算后验概率。
基本词汇
• 判别函数:是一组与各类别有关的函数,对 每一个样本可以计算出这组函数的所有函数 值,然后依据这些函数值的极值(最大或最 小)做分类决策。
• 决策域与决策面:根据判别函数组中哪一个 判别函数值为极值为准则可将特征空间划分 成不同的区域,称为决策域,相邻决策域的 边界是决策分界面或称决策面。
基本词汇
• 线性分类器:判别函数为线性函数的分类器 是线性分类器,此时决策分界面的方程是线 性方程。
• 非线性分类器:是非参数分类器的一种,其 中判别函数或决策面方程是某种特定的非线 性函数,如二次函数,多项式函数等。
• 分段线性分类器:相邻决策域的界面用分段 线性函数表示的分类器。
基本词汇
• 感知准则函数:是线性分类器的另一种著名 设计方法。该种方法通过迭代优化确定最佳 分界面。其特点是利用错分类信息对当前的 分界面进行修正。
基本词汇
• 参数估计:使用贝叶斯决策要知道先验概率,类分 布密度函数等统计参数,为此,要从训练样本集中 估计出这些统计参数,这就是参数估计。
• 非参数估计:在分布密度函数形式也不确定条件下 ,估计统计参数,称为非参数估计。
• 非参数分类器:不以统计参数为分类决策依据的分 类决策方法称为非参数分类器, 线性分类器、非线 性分类器以及近邻分类器都属于这种分类器,它们 不需要统计参数。
线性分类器及python实现

线性分类器及python实现以下内容参考CS231n。
上⼀篇关于分类器的⽂章,使⽤的是KNN分类器,KNN分类有两个主要的缺点:空间上,需要存储所有的训练数据⽤于⽐较。
时间上,每次分类操作,需要和所有训练数据⽐较。
本⽂开始线性分类器的学习。
和KNN相⽐,线性分类器才算得上真正具有实⽤价值的分类器,也是后⾯神经⽹络和卷积神经⽹络的基础。
线性分类器中包括⼏个⾮常重要的部分:权重矩阵W,偏差向量b评分函数损失函数正则化最优化权重矩阵W (Weights)可以理解为所有分类对应的模版向量w组成的矩阵,模版就是分类期望成为的样⼦。
训练数据可以理解为是N维空间中的⼀个向量v,v和W中每个模版做点积,点积越⼤,表⽰两个向量的夹⾓越⼩,也就越接近。
点积最⼤的模版w,就是v所对应的分类。
W不是⼀直不变的。
它会随着对损失函数最优化的过程,不断的调整。
偏差向量b (bias vector) b是不是可以理解为,如果不设置b,那所有的分类线都要通过原点,那其实就起不到分类的作⽤了?参考下图?三条线都通过原点,是⽆法对数据做分类的。
W和b分别对直线做旋转和平移。
评分函数(score function) 之所以是线性分类器,就是因为评分函数使⽤线性⽅程计算分数。
后⾯的神经⽹络会对线性函数做⾮线性处理。
下图直观的展⽰了分类器的线性。
损失函数(loss function)如何判断当前的W和b是否合适,是否能够输出准确的分类?通过损失函数,就可以计算预测的分类和实际分类之间的差异。
通过不断减⼩损失函数的值,也就是减少差异,就可以得到对应的W和b。
Python实现数据预处理# 每⾏均值mean_image = np.mean(X_train, axis=0)# second: subtract the mean image from train and test data# 零均值化,中⼼化,使数据分布在原点周围,可以加快训练的收敛速度X_train -= mean_imageX_val -= mean_imageX_test -= mean_imageX_dev -= mean_image处理b的技巧# third: append the bias dimension of ones (i.e. bias trick) so that our SVM# only has to worry about optimizing a single weight matrix W.# 技巧,将bias加到矩阵中,作为最后⼀列,直接参与矩阵运算。
5第五章 线性分类器(几何分类器)

研究目的和意义
5.1 几何分类器的基本概念
03
内容纲要
研究目的和意义
一个模式通过某种变换映射成一个特征向量后, 该特征向量可以理解为特征空间的一个点。
O { f1, f 2 ,, f n }
06
内容纲要
研究目的和意义
在特征空间中,属于一个类的点集,在某种程 度上总是与属于另一个类的点集相分离,各个类之 间是确定可分的,
10
内容纲要
研究目的和意义
几何分类法按照分界函数的形式可以分为
线性判别函数 和 非线性判别函数 两大类。
11
1.若已知类的所有特征向量都可以用线性分类器正确 研究目的和意义 分类,我们将研究其相应的线性函数的计算方法。
内容纲要
线性可分情况
12
内容纲要 2.对于不能将所有向量正确分类的线性分类器,我们 研究目的和意义 将通过采用相应的优化规则来寻找设计最优线性分类 器的方法。
有多个判别函数的值大于0,第一种情况下只有一个判
别函数的值大于0。
30
内容纲要
研究目的和意义
31
内容纲要 若可用以上几种情况中的任一种线性判别函数来进行分类, 则这些模式类称为线性可分的。总结如表所示。 研究目的和意义
32
内容纲要 第五章 几何分类器专题
研究目的和意义
5.3 线性判别函数的实现
02
内容纲要
研究目的和意义
还记得吗?
第二章到第四章在概率密度和概率函数的基础 上设计分类器。
04
内容纲要
研究目的和意义
直接使用Bayes决策首先需要知道有关样品总体 分布的知识,包括各类先验概率 P(1 ) 、
类条件概率密度函数和样品的后验概率 P(1 | X ) , 并以此作为产生判别函数的必要依据,设计出相应 的判别函数与决策面,这种方法称为参数判别方法。
机器学习面考试试题目

1、有监督学习和无监督学习的区别有监督学习:对具有标记的训练样本进行学习,以尽可能对训练样本集外的数据进行分类预测。
(LR,SVM,BP,RF,GBDT)无监督学习:对未标记的样本进行训练学习,比发现这些样本中的结构知识。
(KMeans,DL)2、正则化正则化是针对过拟合而提出的,以为在求解模型最优的是一般优化最小的经验风险,现在在该经验风险上加入模型复杂度这一项(正则化项是模型参数向量的范数),并使用一个rate 比率来权衡模型复杂度与以往经验风险的权重,如果模型复杂度越高,结构化的经验风险会越大,现在的目标就变为了结构经验风险的最优化,可以防止模型训练过度复杂,有效的降低过拟合的风险。
奥卡姆剃刀原理,能够很好的解释已知数据并且十分简单才是最好的模型。
过拟合如果一味的去提高训练数据的预测能力,所选模型的复杂度往往会很高,这种现象称为过拟合。
所表现的就是模型训练时候的误差很小,但在测试的时候误差很大。
产生的原因过拟合原因:1.样本数据的问题。
样本数量太少;抽样方法错误,抽出的样本数据不能有效足够代表业务逻辑或业务场景。
比如样本符合正态分布,却按均分分布抽样,或者样本数据不能代表整体数据的分布;样本里的噪音数据干扰过大2. 模型问题模型复杂度高、参数太多决策树模型没有剪枝权值学习迭代次数足够多(Overtraining),拟合了训练数据中的噪声和训练样例中没有代表性的特征.解决方法1. 样本数据方面。
增加样本数量,对样本进行降维,添加验证数据抽样方法要符合业务场景清洗噪声数据2. 模型或训练问题控制模型复杂度,优先选择简单的模型,或者用模型融合技术。
利用先验知识,添加正则项。
L1正则更加容易产生稀疏解、L2正则倾向于让参数w趋向于0.4、交叉验证不要过度训练,最优化求解时,收敛之前停止迭代。
决策树模型没有剪枝权值衰减5、泛化能力泛化能力是指模型对未知数据的预测能力6、生成模型和判别模型1. 生成模型:由数据学习联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。
1-图像识别与分析-分类器篇

四、分类器设计准则
在统计模式识别中,讨论的主要问题不是决策正误,而是决策正误的概率 问题。模式识别所强调的“最佳”“最优”,这种最优是针对某一设计原 则讲的,这种原则成为准则 。 这种准则包括: 最小错误率准则:以减少分类错误为原则 最小风险准则:引入风险损失概念,赋予不同权值,使总的风险最小 近邻准则:依据同类物体在空间中具有聚类特性的原理进行区分。 Fisher准则:寻求最好的直线方向以及如何实现向最好方向投影的变换 感知准则:感知准则函数使错分类样品到分界面距离之和最小为原则
3、神经网络分类
从输入空间到输出空间的一个非线性映射,它通过调整权重和阈值来“学习”或发现变量 间的关系,实现对事物的分类。由于神经网络是一种对数据分布无任何要求的非线性技术, 它能有效解决非正态分布、非线性的评价问题,因而受到广泛的应用。
4、基于规则推理法
通过样本训练集构造推理规则进行模式分类,主要有决策树和粗糙集理论。
非线性的分类界面没有这个限制,可以是曲面,多个超平面的 组合等。
二、分类器分类
线性分类器可解释性好,计算复杂度较低,不足之处是模型的 拟合效果相对弱些。
非线性分类器效果拟合能力较强,不足之处是数据量不足容易 过拟合、计算复杂度高、可解释性不好。
二、分类器分类
一、线性分类器 以二分类(红点和蓝点)为例: 线性分类器就是用一个“超平面” 将两个样本隔离开,如:
模式样本的表示方法
(1)向量表示法:假设一个样本有n个变量(特征)Ⅹ= (X1,X2,…,Xn)T (2)矩阵表示: N个样本,每一个样本n个变量 (3)几何表示 一维表示 : X1=1.5 X2=3 ; 二维表示:X1=(x1,x2) T=(1,2) T、X2=(x1,x2) T=(2,1) T 三维表示:X1=(x1,x2, x3) T=(1,1,0) T:X2=(x1,x2 , x3) T=(1,0,1) T
模式识别:线性分类器

模式识别:线性分类器一、实验目的和要求目的:了解线性分类器,对分类器的参数做一定的了解,理解参数设置对算法的影响。
要求:1. 产生两类样本2. 采用线性分类器生成出两类样本的分类面3. 对比线性分类器的性能,对比参数设置的结果二、实验环境、内容和方法环境:windows 7,matlab R2010a内容:通过实验,对生成的实验数据样本进行分类。
三、实验基本原理感知器基本原理:1.感知器的学习过程是不断改变权向量的输入,更新结构中的可变参数,最后实现在有限次迭代之后的收敛。
感知器的基本模型结构如图1所示:图1 感知器基本模型其中,X输入,Xi表示的是第i个输入;Y表示输出;W表示权向量;w0是阈值,f是一个阶跃函数。
感知器实现样本的线性分类主要过程是:特征向量的元素x1,x2,……,xk是网络的输入元素,每一个元素与相应的权wi相乘。
,乘积相加后再与阈值w0相加,结果通过f函数执行激活功能,f为系统的激活函数。
因为f是一个阶跃函数,故当自变量小于0时,f= -1;当自变量大于0时,f= 1。
这样,根据输出信号Y,把相应的特征向量分到为两类。
然而,权向量w并不是一个已知的参数,故感知器算法很重要的一个步骤即是寻找一个合理的决策超平面。
故设这个超平面为w,满足:(1)引入一个代价函数,定义为:(2)其中,Y是权向量w定义的超平面错误分类的训练向量的子集。
变量定义为:当时,= -1;当时,= +1。
显然,J(w)≥0。
当代价函数J(w)达到最小值0时,所有的训练向量分类都全部正确。
为了计算代价函数的最小迭代值,可以采用梯度下降法设计迭代算法,即:(3)其中,w(n)是第n次迭代的权向量,有多种取值方法,在本设计中采用固定非负值。
由J(w)的定义,可以进一步简化(3)得到:(4)通过(4)来不断更新w,这种算法就称为感知器算法(perceptron algorithm)。
可以证明,这种算法在经过有限次迭代之后是收敛的,也就是说,根据(4)规则修正权向量w,可以让所有的特征向量都正确分类。
如何解决机器学习技术中的非线性分类问题

如何解决机器学习技术中的非线性分类问题随着机器学习技术的快速发展,非线性分类问题越来越受到关注。
在许多现实世界的应用中,数据往往不是线性可分的,而是具有复杂的非线性关系。
解决非线性分类问题是实现准确分类和更高预测性能的关键。
在机器学习中,非线性分类问题可以通过以下几种方法来解决:1. 建立非线性模型:传统的线性模型只能建模线性关系,无法捕捉到复杂的非线性特征。
因此,建立非线性模型是解决非线性分类问题的一种重要方法。
例如,支持向量机(SVM)可以使用核函数将数据映射到高维空间,从而实现非线性分类。
此外,神经网络也被广泛应用于非线性分类问题,通过多层神经元的组合来捕捉数据的复杂关系。
2. 特征工程:在解决非线性分类问题时,特征工程起着重要作用。
通过对原始特征进行变换和组合,可以获得更具有区分度的特征,从而增加分类器的准确性。
例如,可以使用多项式特征转换来引入高次特征,或者使用基于树的方法(如决策树)来对特征进行分箱处理,从而更好地捕捉非线性关系。
3. 集成学习方法:集成学习是一种将多个分类器结合起来的方法,以提高分类性能。
对于非线性分类问题,集成学习方法通常可以更好地利用不同分类器之间的互补性。
常见的集成学习方法包括随机森林、梯度提升机和堆叠模型等。
这些方法可以有效地降低模型的方差,并提高预测的准确性。
4. 核技巧方法:核技巧是一种通过将数据映射到高维特征空间来解决非线性分类问题的技术。
通过核函数的使用,可以在不明确指定高维特征空间的情况下,直接计算非线性关系。
常用的核函数包括多项式核函数、高斯核函数和径向基函数等。
这些核技巧方法在SVM等分类器中得到了广泛应用。
5. 数据增强:数据增强是一种通过对原始数据进行扩充和变换来增加训练数据的方法。
在解决非线性分类问题时,数据增强可以帮助模型更好地学习数据的非线性关系。
例如,可以通过对图像进行旋转、平移、缩放等操作来增加图像数据的多样性。
数据增强可以在一定程度上减少过拟合现象,并提高模型的泛化能力。
分类器总结

分类器总结分类器是一种机器学习方法,它可以根据输入数据的特征,将其分为不同的类别。
分类器在各个领域都有广泛的应用,如医学诊断、垃圾邮件过滤、情感分析等。
本文将对分类器的基本原理、不同类别的分类器、优缺点以及应用领域进行总结。
分类器的基本原理是根据训练样本的特征,建立一个分类函数,从而预测新样本的类别。
分类器的训练过程包括特征提取、特征选择、训练数据的预处理和使用合适的学习算法。
常见的学习算法包括朴素贝叶斯、决策树、支持向量机、神经网络等。
朴素贝叶斯分类器是一种基于贝叶斯定理的分类器,它假设样本的特征是条件独立的。
这种分类器简单且高效,在文本分类等领域有广泛应用。
决策树分类器是一种采用树形结构的分类模型,它通过对特征的逐步划分,最终将样本分为不同的类别。
这种分类器易于理解和解释,但在处理噪声和复杂问题时可能产生过拟合现象。
支持向量机分类器是一种构建超平面以将样本分离的分类器,它可以处理高维特征空间和非线性可分问题。
神经网络分类器是一种模仿人脑神经元网络的分类器,它可以学习复杂的非线性关系,但需要大量的训练样本和计算资源。
不同分类器的优缺点各有差异。
朴素贝叶斯分类器具有参数少、适合处理大规模数据、天然处理特征相关性等优点,但对输入数据的分布假设过于简单,可能导致分类效果不理想。
决策树分类器易于理解和解释,对异常值不敏感,但在特征空间很大时容易过拟合。
支持向量机分类器可以处理高维特征空间和非线性关系,但对大规模数据和噪声敏感。
神经网络分类器可以学习复杂的非线性关系,但需要大量的训练样本和计算资源。
分类器在各个领域都有广泛的应用。
在医学诊断中,分类器可以根据病人的症状和检查结果,预测其患有某种疾病的可能性,帮助医生进行诊断和治疗。
在垃圾邮件过滤中,分类器可以根据邮件的特征,将其分类为垃圾邮件或正常邮件,帮助用户过滤垃圾邮件。
在情感分析中,分类器可以根据文本的特征,将其分类为积极、消极或中性,帮助企业了解公众对其产品的反馈。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第二章统计模式识别(一)(几何分类法)目录统计分类的基本思想模板匹配法及其数学描述模式的相似性度量及距离分类法几何分类法(线性可分时)几何分类法(线性不可分时)小结1.模式与模式识别––统计分类的基本思想b公设一:可描述性存在一个有代表性的样本集可供使用,以便获得一个问题范围。
公设二:可分性一个“简单”模式,具有表征其类别的类属性特征。
{(),,()}i kf fω=⊂ΩLX X公设三:备注:公设三中的特征是模式分类和识别统计分类的基本思想d公设四:特征独立性一个“复杂”模式具有简单的组成部分,它们之间存在确定的关系。
模式被分解成这些组成部分,且它们有一个确定的而不是任意的结构。
公设五:模式相似性如果两个模式的特征或其简单的组成部分仅有微小差别,则称两个模式是相似的。
–1–8讲义:模式识别导论第二章:统计模式识别(一)统计分类的基本思想g线性判别分类的基本方法–将样本的各类特征向量定位于特征空间后设法找出分界线(n=2时)或分界面(n>2时)。
–把特征空间分割成若干区域,每个区域对应于一个类别–对于一个未知类别的模式落在那个区域,就被分到那个类别中。
注意:12(,,,)T n X x x x =L 特征维数增加,分类的复杂度提高;样本的类别增多,分类的复杂度也提高。
目录2. 模板匹配法及其数学描述模板匹配法(Template Matching)是一种最原始、最基本的方法,它是一种统计识别的方法。
如果模板与样品上的绝大多数单元相匹配,则称“匹配的好”,反之称“匹配不好”,并取匹配最好的作为识别结果。
模板匹配的几种形式光学模板匹配:电子模板匹配(模拟灰度):电子模板匹配(数字灰度):参考书上的内容模板匹配的实现以文字识别为例,将每一个字建立一个模板P ,对一未知模式X ,逐个与模板匹配求出最小距离,然后进行识别即可,详细过程如下:1x 2x模板匹配的实现(续)1. 计算:K 为字符库中的字数。
2. 判别:如果则判否则拒识。
其中为拒识距离阈值。
,1,2,...i jij k ijH xp k K=−=∑∑min ,k kH ρ<kX P ∈ρ目录3. 模式的相似性度量及距离分类法相似性度量距离分类法标准样本的距离分类器分散样本的距离分类器3.1 相似性度量如果两个模式的特征或其简单的组成部分仅有微小差别,则称两个模式是相似的,这是相似性度量的基础。
常用的度量函数有:–距离函数–其他度量函数距离函数距离函数:这是最简单和直观的分类方法,以点距离作为样本相似性量度的主要依据。
距离越近,表示样本越相似。
1x 2x 其他度量函数类似度:如果模式类呈扇状分布,则可定义两矢量夹角之余弦为相似函数。
其中,为两矢量X 、Z 之夹角,|X |为向量X 之幅度。
函数值越大,表示样本越相似。
(,)cos T X Z S X Z X Zθ⋅==θ1x 2x 1z 2z x1θ2θ 3.2 距离分类法对于模式空间中的距离,应满足以下条件:★对称性:★三角性:★非负性:当且仅当X=Y 时等号成立()(),,d X Y d Y X =()()(),,,d X Y d X Z d Y Z ≤+(),0d X Y ≥距离分类法(续)常见的距离函数有:–欧氏距离:–Manhattan 距离:–“City Block ”距离:–Minkowsky 距离:()1221,ni i i d X Y x y = =−∑()1,nii i d X Y xy ==−∑()1,n ii ii d X Y x y ω==⋅−∑()11,ni i i d X Y x y λλ= =−∑距离分类法(续)距离函数还有:–Mahalanobis 距离:其中,是模式总体的均值向量是相应的协方差矩阵马氏距离考虑到样本的统计特性,排除样本间的相关性影响。
当协方差矩阵是对角矩阵时,各特征分量就是相互独立的。
21()()T D X M C X M −=−−C M C I=若3.3 标准样本的距离分类器分类原理:如果有R 个类别,可以各用一标准样本表示,则可以采用最小距离分类原理,将未知样本X 分类到与其距离最小的标准样本中。
即:或者12,,...R ωωω12,,...R M M M ()(),,,i j i d X M d X M j i X ω<≠⇒∀∈()(),min ,i j id X M d X M X ω⇒=∈i M 标准样本的距离分类器(续)特例:欧氏距离2(,)(,)(,)212()2T T T T j j j j j jT T T j j j d X M X M X M X X M X M M X X M X M M ==−+=−−mid 2(,)j d X M 1max ()2T T j j j jg X M X M M =−下页标准样本的距离分类器(续)分类准则线性判别函数–设每类的样品为n 维,即为的一个分量令则,其中()(),i j ig X g X j i X ω>∀∈⇒≠ji m j M ,1,2,,ji ji m i n ω==L ,112T j jj n M M ω+=−''()1,2,,T j j g X W X j n ==L 1X X = '12j j T j j M W M M = −3.4 分散样本的距离分类器由于畸变和噪声的影响,样本总是散布的,散布的程度取决于样本的性质、预处理和特征提取的方法。
根据不同情况,有如下几种不同的方法:–平均样本法–平均距离法–最近邻法–距离分类器的优缺点平均样本法在样本分散较小时,可以将每类的样本平均值作为标准样本,即,然后再采用标准样本的最小距离分类法即可。
优点:简单,存储量小,易于实现。
缺点:没有考虑到样本散布对分类的影响。
11st j t M Y s==∑平均距离法a考虑到样本散布的影响,未知样本X 对类别的距离用类别的所有样本的平均距离来表示,即然后采用标准样本的最小距离法进行分类即可。
()()2211,,s t j t d X d X Y s ω==∑(,)j d X ωj ωj ω平均距离法b优缺点分析:优点:考虑到了样本的散布,效果优于平均样本法。
缺点:需要存储所有的样本,计算量较大,比较费时。
最近邻法a考虑样本散布的另一种分类方法,是以与未知样本X 最近邻的点的类别作为X 的分类,即:并以距离最小的类别作为X 的分类:()()1,2,..,,min ,t j l sd X d X Y ω==()(),,,i j id X d X j i X ωωω<∀≠⇒∈最近邻法b特例:欧氏距离判别规则按最临近法得到的分界面是类别间个最近邻点连线的垂直平分超平面的组合。
1,2,..,1()max{}2T T j j j j l s D X X M M M ==−()(),i j iD X D X j i X ω>∀∈⇒≠最近邻法c优缺点分析:–优点:对大多数的线性可分的情况,能达到较好的效果。
–缺点:需要存储所有的样本,并且没有充分利用所有的样本信息,因而受噪声影响较大。
–折衷策略1.利用集群方法2.k -近邻方法根据一定的准则,把一类样本分成子集,k-近邻方法根据未知样本X最近邻的k个样本点中多数点的类别来分类。
计算X与所有训练样本的距离,找到最近邻的k个点,根据如下规则确定X的类别。
k-近邻具有较好的噪声免疫性能。
但是加权值相同的假设有些不合理。
,i j ik k j i Xω∀≠⇒>∈1Rjjk k==∑概念直观,方法简单,比较适合于低维、距离分类法优缺点分析b缺点:–把图像看做一个确定的过程,以距离作为分类的基础并不严格。
没有考虑到用概率和可能性来分类。
–用所有样本点来进行距离计算时存储量和计算量较大;用平均样本又不能充分利用信息。
–由最小距离分类概念直接得到判决准则,不能用数字方法判定其分类好坏。
目录4. 几何分类法(线性可分时)分为以下几种:–线性判别函数–广义线性判别函数–感知器算法–LMSE算法–线性分类器用于多类样本4.1 线性判别函数(两类)两类情况下的线性判别函数:假设样本为二维的,且线性可分,则存在这样的一个线性判别函数:其中,分别是二维平面上的坐标变量,为方程的参数。
()11223g X w x w x w=++=12,x x123,,w w w将121X ω∈类2X ω∈类()00T g X W X >== < 不可判别线性判别函数(两类)cOx x ()0g X w x w x w =++=当模式为二维时,判别边界为一直线;当模式大于三维时,判别边界为一超平线性判别函数(多类)a多类(R 类)情况下的判别函数:分三种情况:每一模式与其他模式类间可用单个判别平面分割;每两类之间都可以分别用判别平面分割开;存在R 个判别函数,第二种的特例;()0,0,iTi i X g X W X ω>∈ ==< 当其他情况1X ω∈第一种情况:分类图x x ()0g X =()0g X =()0g X =1ω2ω3ω()112g X x x =−+()2125g X x x =+−()321g X x =−+第一种情况:分类区域()0g X =()0g X =()0g X =x x IRIRIRIR1ω3ω2ω()112g X x x =−+()2125g X x x =+−()321g X x =−+第一种情况:分析缺点:如果某一区域,的条件超过一个,或对所有i 均有,则这种分类形式失效,如上图中的四个IR 区域。
优点:该方法判别区域的范围是无限的。
()0i g X >()0i g X <第二种情况:每两类之间都可以分别用判别平面分割开。
这种情况下有R (R -1)/2个判别函数,判别函数的形式为:这里,()T ij i j g X W X=()()ij ji g X g X =−第二种情况(续)如果X 属于类,则假设有一个三类问题,对于给定模式X ,若有则而在判别类的模式时无关。
如下图:i ω()0,ij g X j i>∀≠()()121300g X g X >>和1X ω∈()23g X ω1第二种情况:分类图Oxx ()0g X =()0g X =()0g X =1ω2ω3ω()12125g X x x =−−+()1313g X x =−+()2312g X x x =−+第二种情况:分类区域()0g X =()0g X =()0g X =1ω2ω3ωx x IR12g +21g +23g +g +31g +g +()12125g X x x =−−+()1313g X x =−+()2312g X x x =−+例子:一个三类模式分类器,判别函数是()12125g X x x =−−+()1313g X x =−+()2312g X x x =−+()122g X =−()131g X =−()231g X =−()212g X =()311g X =()321g X =3X ω∈()125g X =()133g X =()230g X =()215g X =−()313g X =−()320g X =1X ω∈输入:X=(0,0)T输入:X=(4,3)T优点:该方法判别区域的范围是无限的。