模式识别作业题(1)

合集下载

贝叶斯决策理论-模式识别课程作业

贝叶斯决策理论-模式识别课程作业

研究生课程作业贝叶斯决策理论课程名称模式识别姓名xx学号xxxxxxxxx专业软件工程任课教师xxxx提交时间2019.xxx课程论文提交时间:2019 年3月19 日需附上习题题目1. 试简述先验概率,类条件概率密度函数和后验概率等概念间的关系:先验概率针对M 个事件出现的可能性而言,不考虑其他任何条件类条件概率密度函数是指在已知某类别的特征空间中,出现特征值X 的概率密度,指第 类样品其属性X 是如何分布的。

后验概率是指通过调查或其它方式获取新的附加信息,利用贝叶斯公式对先验概率进行修正,而后得到的概率。

贝叶斯公式可以计算出该样品分属各类别的概率,叫做后验概率;看X 属于那个类的可能性最大,就把X 归于可能性最大的那个类,后验概率作为识别对象归属的依据。

贝叶斯公式为类别的状态是一个随机变量.而某种状态出现的概率是可以估计的。

贝叶斯公式体现了先验概率、类条件概率密度函数、后验概率三者关系的式子。

2. 试写出利用先验概率和分布密度函数计算后验概率的公式3. 写出最小错误率和最小风险决策规则相应的判别函数(两类问题)。

最小错误率如果12(|)(|)P x P x ωω>,则x 属于1ω 如果12(|)(|)P x P x ωω<,则x 属于2ω 最小风险决策规则 If12(|)(|)P x P x ωλω< then 1x ω∈If12(|)(|)P x P x ωλω> then 2x ω∈4. 分别写出以下两种情况下,最小错误率贝叶斯决策规则: (1)两类情况,且12(|)(|)P X P X ωω= (2)两类情况,且12()()P P ωω=最小错误率贝叶斯决策规则为:If 1...,(|)()max (|)i i j j cp x P P x ωωω==, then i x ω∈两类情况:若1122(|)()(|)()p X P p X P ωωωω>,则1X ω∈ 若1122(|)()(|)()p X P p X P ωωωω<,则2X ω∈(1) 12(|)(|)P X P X ωω=, 若12()()P P ωω>,则1X ω∈若12()()P P ωω<,则2X ω∈(2) 12()()P P ωω=,若12(|)(|)p X p X ωω>,则1X ω∈若12(|)(|)p X p X ωω<,则2X ω∈5. 对两类问题,证明最小风险贝叶斯决策规则可表示为, 若112222221111(|)()()(|)()()P x P P x P ωλλωωλλω->-则1x ω∈,反之则2x ω∈ 计算条件风险2111111221(|)(|)(|)(|)j j j R x p x P x P x αλωλωλω===+∑2222112221(|)(|)(|)(|)j j j R x p x P x P x αλωλωλω===+∑如果 111122(|)(|)P x P x λωλω+<211222(|)(|)P x P x λωλω+ 2111112222()(|)()(|)P x P x λλωλλω->-211111122222()()(|)()()(|)P p x P p x λλωωλλωω->-112222221111(|)()()(|)()()P x P P x P ωλλωωλλω->-所以,如果112222221111(|)()()(|)()()P x P P x P ωλλωωλλω->- ,则1x ω∈,反之则2x ω∈6. 表示模式的特征向量d x R ∈,对一个c 类分类问题,假设各类先验概率相等,每一类条件概率密度为高斯分布。

大学模式识别考试题及答案详解

大学模式识别考试题及答案详解

大学模式识别考试题及答案详解Document number:PBGCG-0857-BTDO-0089-PTT1998一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。

2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。

3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。

(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。

(1)(2) (3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。

(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。

(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。

(1)({A, B}, {0, 1}, {A?01, A? 0A1 , A? 1A0 , B?BA , B? 0}, A)(2)({A}, {0, 1}, {A?0, A? 0A}, A)(3)({S}, {a, b}, {S ? 00S, S ? 11S, S ? 00, S ? 11}, S)(4)({A}, {0, 1}, {A?01, A? 0A1, A? 1A0}, A)二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。

答:(1)分类准则,模式相似性测度,特征量的选择,量纲。

(2)证明:(2分)(2分)(1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。

模式识别作业题(1)

模式识别作业题(1)

m 2 mn ] 是奇异的。 mn n 2
1
2、参考参考书 P314“模式识别的概要表示”画出第二章的知识结构图。 答:略。 3、现有两类分类问题。如下图所示, (1,
1 1 3 ) 、 ( , ) 、 (1, 3 ) 、 (1,-tan10°)为 3 2 2 3 3 ,- * tan 10° ) 、 (2,0)为 W2 类。 5 5
W1 类,其中(1,-tan10°)已知为噪声点; (1,0) 、 ( 自选距离度量方法和分类器算法,判别(
6 ,0)属于哪一类? 5
答:度量方法:根据题意假设各模式是以原点为圆心的扇状分布,以两个向量之间夹角(都 是以原点为起点)的余弦作为其相似性测度,P22。 然后使用 K 近邻法,K 取 3,求已知 7 个点与(
2
答: (1)×,不一定,因为仅仅是对于训练样本分得好而已。 (2)×,平均样本法不需要。 (3)√,参考书 P30,将 r 的值代入式(2.26)即得。 (4)√,参考书 P34,三条线线性相关。 ( 5 ) √ ,就是说解区是 “ 凸 ” 的,参考书 P37 ,也可以证明,设 W1T X’=a, W2T X’=b, 则 a≤λW1+(1-λ)W2≤b(设 a≤b) 。 (6)√,参考书 P38。 (7)×,前一句是错的,参考书 P46。 (8)×,是在训练过程中发现的,参考书 P51。 (9)×,最简单的情况,两个点(0,0)∈w1,(2,0)∈w2,用势函数法求出来的判决界面是 x1=1。 (10)√,一个很简单的小证明, 设 X1=a+K1*e,X2= a-K1*e,X3=b+K2*e,X4= b-K2*e, Sw=某系数*e*e’,设 e=[m n],则 e *e’= [
方法三:参照“两维三类问题的线性分类器的第二种情况(有不确定区域) ”的算法,求 G12,G23,G13。 G12*x1>0, G12*x2<0, G12=(-1,-1,-1)’ G23*x2>0, G23*x3<0, G23=(-1,-1,1)’ G13*x1>0, G13*x3<0, G12=(-1,-1,1)’ 有两条线重合了。

模式识别作业

模式识别作业

第四章模式识别作业姓名:谢雪琴学号:20102220551、阐述线性判别函数的几何意义和用于分类的实用价值。

答:线性判别函数的几何意义:利用线性判别函数进行决策,它可以看成是两类数据沿着一个向量投影,在向量上存在一个超平面,能将两类数据分隔开,即两类数据能够完全被区别。

线性判别函数可以是最小错误率或最小风险意义下的最优分类器。

它利用一个超平面把特征空间分割成为两个决策区域,超平面的方向由权向量W确定,它的位置由阈权值w0确定,判别函数g(x)正比于x点到超平面的代数距离(带正负号),当x在H正侧时,g(x)>0,当在H负侧时,g(x)<0;使用价值:线性分类器是最简单的分类器,但是样本在某些分布情况时,线性判别函数可以成为最小错误率或最小风险意义下的最优分类器。

而在一般情况下,线性分类器只能是次优分类器,但是因为他简单而且在很多情况下效果接近最优,所以应用比较广发,在样本有限的情况下有时甚至能取得比复杂分类器更好地效果2、参考教材4.3,完成线性判别分析(LDA)的Matlab实现,并用Fisher's Iris Data【注】进行验证(考虑其中的2类即可)。

注:Fisher's Iris Data: Fisher's iris data consists of measurements on the sepal length, sepal width, petal length, and petal width of 150 iris specimens. There are 50 specimens from each of three species. 在Matlab中调用load fisheriris可以得到该数据,meas为150×4的数据矩阵,species为150×1的cell矩阵,含有类别信息。

3、试推导出感知器算法的迭代求解过程,尝试用Matlab实现,并用Fisher's Iris Data进行验证(考虑2类分类即可)。

大学模式识别考试题及答案详解

大学模式识别考试题及答案详解

大学模式识别考试题及答案详解Company number:【0089WT-8898YT-W8CCB-BUUT-202108】一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。

2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。

3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。

(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。

(1)(2) (3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。

(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。

(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。

(1)({A, B}, {0, 1}, {A01, A 0A1 , A 1A0 , B BA , B 0}, A)(2)({A}, {0, 1}, {A0, A 0A}, A)(3)({S}, {a, b}, {S 00S, S 11S, S 00, S 11}, S)(4)({A}, {0, 1}, {A01, A 0A1, A 1A0}, A)二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些(2)证明马氏距离是平移不变的、非奇异线性变换不变的。

答:(1)分类准则,模式相似性测度,特征量的选择,量纲。

(2)证明:(2分)(2分)(1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。

模式识别练习题

模式识别练习题

一、试问“模式”与“模式类”的含义。

如果一位姓王的先生是位老年人,试问“王先生”和“老头”谁是模式,谁是模式类?答:在模式识别学科中,就“模式”与“模式类”而言,模式类是一类事物的代表,概念或典型,而“模式”则是某一事物的具体体现,如“老头”是模式类,而王先生则是“模式”是“老头”的具体化。

二、试说明Mahalanobis距离平方的定义,到某点的Mahalanobis距离平方为常数的轨迹的几何意义,它与欧氏距离的区别与联系。

答:Mahalanobis距离的平方定义为:其中x,u为两个数据,是一个正定对称矩阵(一般为协方差矩阵)。

根据定义,距某一点的Mahalanobis距离相等点的轨迹是超椭球,如果是单位矩阵Σ,则Mahalanobis距离就是通常的欧氏距离。

三、试说明用监督学习与非监督学习两种方法对道路图像中道路区域的划分的基本做法,以说明这两种学习方法的定义与它们间的区别。

答:监督学习方法用来对数据实现分类,分类规则通过训练获得。

该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。

非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,如聚类,确定其分布的主分量等。

就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。

使用非监督学习方法,则依据道路路面象素与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。

四、试述动态聚类与分级聚类这两种方法的原理与不同。

答:动态聚类是指对当前聚类通过迭代运算改善聚类;分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。

五、如果观察一个时序信号时在离散时刻序列得到的观察量序列表示为,而该时序信号的内在状态序列表示成。

如果计算在给定O 条件下出现S 的概率,试问此概率是何种概率。

如果从观察序列来估计状态序列的最大似然估计,这与Bayes 决策中基于最小错误率的决策有什么关系。

大学模式识别考试题及答案详解完整版

大学模式识别考试题及答案详解完整版

大学模式识别考试题及答案详解HUA system office room 【HUA16H-TTMS2A-HUAS8Q8-HUAH1688】一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。

2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。

3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。

(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。

(1)(2) (3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。

(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。

(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。

(1)({A, B}, {0, 1}, {A01, A 0A1 , A 1A0 , B BA , B 0}, A)(2)({A}, {0, 1}, {A0, A 0A}, A)(3)({S}, {a, b}, {S 00S, S 11S, S 00, S 11}, S)(4)({A}, {0, 1}, {A01, A 0A1, A 1A0}, A)二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。

答:(1)分类准则,模式相似性测度,特征量的选择,量纲。

(2)证明:(2分)(2分)(1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。

模式识别_作业1

模式识别_作业1

作业一:作业二:对如下5个6维模式样本,用最小聚类准则进行系统聚类分析: x 1: 0, 1, 3, 1, 3, 4 x 2: 3, 3, 3, 1, 2, 1 x 3: 1, 0, 0, 0, 1, 1 x 4: 2, 1, 0, 2, 2, 1 x 5: 0, 0, 1, 0, 1, 01、 计算D (0)=⎪⎪⎪⎪⎪⎪⎪⎪⎭⎫ ⎝⎛0 12 3 5 2612 0 7 15 243 7 0 24 55 15 24 0 2326 24 5 23 0,因为x3与x5的距离最近,则将x3与x5分为一类。

同时可以求出x1,x2,x4与x3,5的距离,如x1到x3,5的距离为x1到x3的距离与x1与x5的距离中取最小的一个距离。

2、 则D (1)=⎪⎪⎪⎪⎪⎪⎭⎫ ⎝⎛0 7 15 2470 24 515 24 0 2324 5 23 0,同样现在该矩阵中x4与x3,5的距离最近,则可以将x3,4,5分为一类,这样分类结束,总共可以将x1,x2,x3,x4,x5分为三类,其中:x1为第一类;x2为第二类;x3和x4和x5为第三类。

• 作业三:(K-均值算法)• 选k=2,z 1(1)=x 1,z 2(1)=x 10,用K-均值算法进行聚类分析由图可以看出这二十个点的坐标:x1(0,0),x2(1,0),x3(0,1),x4(1,1),x5(2,1),x6(1,2),x7(2,2),x8( 3,2),x9(6,6),x10(7,6),x11(8,6),x12(6,7),x13(7,7),x14(8,7),x 15(9,7),x16(7,8),x17(8,8),x18(9,8),x19(8,9),x20(9,9)。

1、选2个初始聚类中心,z1(1)=x1,z2(1)=x10.2、求取其它十八个点分别到x1与x10的距离:x2到x1的距离为1;x2到x10的距离为6x3到x1的距离为1;x3到x10的距离为x4到x1的距离为;x4到x10的距离为x5到x1的距离为;x5到x10的距离为5x6到x1的距离为;x6到x10的距离为x7到x1的距离为2;x7到x10的距离为x8到x1的距离为;x8到x10的距离为4x9到x1的距离为6;x9到x10的距离为1x11到x1的距离为10;x11到x10的距离为1x12到x1的距离为;x12到x10的距离为x13到x1的距离为7;x13到x10的距离为1x14到x1的距离为;x14到x10的距离为x15到x1的距离为;x15到x10的距离为x16到x1的距离为;x16到x10的距离为2x17到x1的距离为8;x17到x10的距离为x18到x1的距离为;x18到x10的距离为2x19到x1的距离为;x19到x10的距离为x20到x1的距离为9;x20到x10的距离为所以其中x2到x8距离x1近些,则可以将x2到x8与x1分为一类,而x9与x11到x20与x10分为另一类;3、通过将第一类中的所有x1到x8的坐标求取平均来计算该类别的中心坐标,求取新的类别的中心坐标z1(2)= (5/4,9/8),同理可以求出另一类的中心坐标z2(2)= (92/12,22/3)4、然后重新计算各点距离这二点中心坐标的距离,最后可以得出x1到x8仍然为第一类,x9到x20仍然为第二类。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

6 ,0)的距离(这里算得的 7 个距离略) , 5
然后排序,发现属于 W1 的有 1 个,属于 W2 的有 2 个,则判属于 W2。 本题也可使用欧式距离,不过计算较复杂。 本题也可用平均样本法、平均距离法。 使用最近邻法直接判错。 当然,若已知(1,-tan10°)为噪声点,直接去掉也行。去掉噪声点后用线性分类器也可解 答,但不大好。 本题无标准答案,论述有理、步骤正确即可。 4、已知训练样本(-1,-1)T 属于 w1 类, (0,0)T 属于 w2 类, (1,1)T 属于 w3 类,试用 感知器算法求解对应的分类器(设初始解权向量 0,步长为 1,要求给出相应解权向量的表 达式,并给出结果的图示) 。 答: 要活学活用, 了解了感知器原理和线性分类器原理就不难将书上的两类算法推广为三类。 方法一: (1)参照“两维三类问题的线性分类器的第三种情况(没有不确定区域,参考书 P35) ”的算法,求 d1,d2,d3。 训练样本矢量增广化,各类样本无需符号规范化。 x1=(-1,-1,1)’, x2=(0,0,1)’, x3=(1,1,1)’ (2)运用感知器训练算法。 增量为 1,赋初值:w1(0)=w2(0)=w3(0)=(0,0,0)’,进行迭代运算: k=1,x1∈w1,d1(x1)=d2(x1)和 d1(x1)=d3(x1),所以 w1(1)=w1(0)+x1=(-1,-1,1)’ w2(1)=w2(0)-x1=(1,1,-1)’ w3(1)=w3(0)-x1=(1,1,-1)’
方法三:参照“两维三类问题的线性分类器的第二种情况(有不确定区域) ”的算法,求 G12,G23,G13。 G12*x1>0, G12*x2<0, G12=(-1,-1,-1)’ G23*x2>0, G23*x3<0, G23=(-1,-1,1)’ G13*x1>0, G13*x3<0, G12=(-1,-1,1)’ 有两条线重合了。
b 。 Xi
答: (1)满足 W’ TXi≥b 的 W’也满足 W’ TXi>0,故得证。 (2)W’TXi=b 到 W’TXi=0 的距离为
G (W ') b ,这是因为 P31 r= ,其中 G(W’)= W’TXi, Xi Xi
设 W’TXi=b 面上一点为 e,则 r=
G (e) eT Xi b = = 。 Xi Xi Xi
6
⎡1 1 1⎤ ⎢2 3 1⎥ ⎥ ,b=[1 2 1 2] T, 答: (1) [ X ] = ⎢ ⎢ −2 0 −1⎥ ⎢ ⎥ ⎣ −4 −1 −1⎦
X#=-0.2667 -0.0333 0.0667 -0.3667 -0.0667 0.3667 0.2667 0.0333 0.9333 -0.1333 -0.7333 0.5333 T -1 T W=(X X) X b= -1 1 1 分类器是 G(X)=-x1+x2+1 G(X)>0,为 W1,G(X)<0,为 W2。 (2)计算伪逆, 然后取余量矢量 b(0)= [1 2 1 2] T,由算法可知 W(0)= X#* b(0)=[-1 1 1]’ e(0)=XW(0)-b(0)=[0 0 0 0]’ 所以 W(0)就是所求的解,分类器和(1)一样。 (3)计算两个类别的均值向量, mx1=( 计算类内总离散度矩阵 Sw=2.5000 2.0000 -1 Sw =1.1111 -0.8889 最佳投影方向 W*=-3 3 T T W1: (1,1) 投影为 0, (2,3) 投影为 3,W2: (2,0)T 投影为-6, (4,1)T 投影为-9,阈值可 选为-3,故判决函数 G(X)=-3X1+3X2->3 判为 W1,<3 判为 W2。 其实和(1)一样。 该题很多同学写不完整,算出 W 就结束了,但是还要给出最终的分类器! 附加题: 2.0000 2.5000 -0.8889 1.1111
模式识别第一次作业习题解答
1、 判断题 (1)训练误差越小的分类器效果越好。 () (2)平均样本法、平均距离法和最近邻法都需要存储所有的训练样本。 () (3)X 在超平面 G(x) = WT X + w0 = 0 上的投影是 X p = X −
G( X ) W
2
W。 ()
(4)两维三类问题的线性分类器的第三种情况(没有不确定区域,参考书 P35)中,三条 直线一定交于一点。 () (5)已知两类样本线性可分,使用的线性分类器判别函数为 G(x) = WT X’,现求得 W1 和 W2 都是满足分类要求的权向量,则 λW1+(1-λ)W2(0≤λ≤1)也是满足要求的权向量。 () (6)感知准则函数正比于被错分类的样本到判决界面的距离之和。 () (7) 由于负梯度方向总是最理想的搜索方向, 所以沿着负梯度方向进行搜索的“最陡下降法” 收敛很快。 () (8)H-K 算法可以在训练前直接判断训练样本集是否线性可分。 () (9) 位势函数法使用 K ( X , Xn) = exp{−α X − Xn } 作为位势函数时对二维二类问题进行 分类,最终得到的判别界面一定是曲线。 () (10)下图中,若 L1∥L2,则类内总离散度矩阵是奇异的。 ()
方法二:直接设两条直线 L1、L2,使得 L1x1<0,L2x1<0 L1x2<0,L2x2>0 L1x3>0,L2x3>0 初始化都设为 0, k=1,L1x1=0,L1=L1-x1=(1,1,-1)’ L2x1=0,L2=L2-x1=(1x2=-1,L1 不变 L2x2=-1,L2=L2+x2=(1,1,0)’ k=3,L1x3=1,L1 不变 L2x3=2,L2 不变 k=4,L1x1=-3,L1 不变 L2x1=-2,L2 不变 k=5,L1x2=-1,L1=L1 不变 L2x2=0,L2=L2+x2=(1,1,1)’ k=6,L1x3=1,L1 不变 L2x3=3,L2 不变 k=7,L1x1=-3,L1 不变 L2x1=-1,L2 不变 k=8,L1x2=-1,L1 不变 L2x2=1,L2 不变 结束, L1=x1+x2-1 L2=x1+x2+1 若 L1x1<0,L2x1<0,判为 w1 若 L1x2<0,L2x2>0,判为 w2 若 L1x3>0,L2x3>0,判为 w3
6、对于二维线性判别函数 g(x) = x1 + 2x2 − 2 (1)将判别函数写成 g(x) = wT x + w0 的形式,并画出 g(x) = 0 的几何图形; (2)映射成广义齐次线性函数 g(x) = aT y; (3)指出上述 X 空间实际是 Y 空间的一个子空间,且 aT y = 0 对于 X 子空间的划分和原 空间中 wTx + w0 = 0 对原 X 空间的划分相同,并在图上表示出来。 答: (1)w = [1, 2]T , x = [x1, x2]T ,w0 = −2,则 g(x) = wT x + w0,g(x) = 0 的图形如下图所示。
2
k=2,x2∈w2,d1(x2)>d2(x2)和 d2(x2)=d3(x2),所以 w1(2)=w1(1)-x2=(-1,-1,0)’ w2(2)=w2(1)+x2=(1,1,0)’ w3(2)=w3(1)-x2=(1,1,-2)’ k=3,x3∈w3,d1(x3)<d3(x3)和 d2(x3)>d3(x3),所以 w1(3)=w1(2) =(-1,-1,0)’ w2(3)=w2(2)-x3=(0,0,-1)’ w3(3)=w3(2)+x3=(2,2,-1)’ k=4,x1∈w1,d1(x1)>d2(x1)和 d1(x1)>d3(x1),所以成功 1 次, w1(4)=w1(3) =(-1,-1,0)’ w2(4)=w2(3) =(0,0,-1)’ w3(4)=w3(3) =(2,2,-1)’ k=5,x2∈w2,d1(x2)>d2(x2)和 d2(x2)=d3(x2),所以成功 0 次, w1(5)=w1(4) –x2=(-1,-1,-1)’ w2(5)=w2(4) +x2=(0,0,0)’ w3(5)=w3(4) –x2=(2,2,-2)’ k=6,x3∈w3,d1(x3)<d3(x3)和 d2(x3)<d3(x3),所以成功 1 次, k=7,x1∈w1,成功 2 次, k=8,x2∈w2,成功 3 次,结束, 求得三个判别函数: d1(x)=--x1-x2-1 d2(x)=0 d3(x)=2x1+2x2-2; d12(x)= -x1-x2-1 d13(x)=-3x1-3x2+1 d23(x)=-2x1-2x2+2
W1 类,其中(1,-tan10°)已知为噪声点; (1,0) 、 ( 自选距离度量方法和分类器算法,判别(
6 ,0)属于哪一类? 5
答:度量方法:根据题意假设各模式是以原点为圆心的扇状分布,以两个向量之间夹角(都 是以原点为起点)的余弦作为其相似性测度,P22。 然后使用 K 近邻法,K 取 3,求已知 7 个点与(
m 2 mn ] 是奇异的。 mn n 2
1
2、参考参考书 P314“模式识别的概要表示”画出第二章的知识结构图。 答:略。 3、现有两类分类问题。如下图所示, (1,
1 1 3 ) 、 ( , ) 、 (1, 3 ) 、 (1,-tan10°)为 3 2 2 3 3 ,- * tan 10° ) 、 (2,0)为 W2 类。 5 5
4
还有同学把三点做了变换,使三个点不在同一条直线上,总体线性可分,这种做法也可以。 但其实没有必要。 有的同学先把 x1 看成一类,x2、x3 看成另一类生成一个分类器 w1,再根据 x2、x3 生成一 个分类器 w2,也可以。 该题很多同学出现的错误是:用“总体线性可分”的方法来做;或者想当然的先根据 x1、 x2 生成分类器 1,再根据 x2、x3 生成分类器 2,思路错误。 5、证明引入余量 b 之后,新的解区 W’TXi≥b(i=1,2,…) 位于原解区 W’ TXi>0(i=1,2,…)之中, 且与原解区边界之间的距离为
相关文档
最新文档