模式识别试题及总结

合集下载

模式识别期末试题

模式识别期末试题

模式识别期末试题1.模式识别系统的基本构成单元包括模式采集、特征提取与选择和模式分类。

这些构成单元一起协作,以确定输入模式的类别或特征。

2.统计模式识别中,描述模式的方法一般使用特征向量;而句法模式识别中,模式描述方法一般有串、树、网等。

3.聚类分析算法属于无监督分类;判别域代数界面方程法属于统计模式识别方法。

4.若描述模式的特征量为0-1二值特征量,则一般采用匹配测度进行相似性度量。

5.准则函数可以作为聚类分析中的判别标准,常用的有距离准则、均值准则和连通性准则。

6.Fisher线性判别函数的求解过程是将N维特征向量投影在一维空间中进行。

7.感知器算法只适用于线性可分情况;而积累位势函数法既适用于线性可分,也适用于线性不可分情况。

8.满足文法定义的四元组包括:起始符号、非终结符号集合、终结符号集合和产生式规则集合。

其中,第一、二、四个四元组满足文法定义。

9.影响层次聚类算法结果的主要因素包括计算模式距离的测度、聚类准则、类间距离门限和预定的类别数目。

10.欧式距离具有平移不变性和旋转不变性;马式距离具有平移不变性、旋转不变性、尺度缩放不变性和不受量纲影响的特性。

11.线性判别函数的正负和数值大小的几何意义是正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离。

12.感知器算法适用于线性可分和线性不可分的情况。

13.积累位势函数法相较于H-K算法的优点是该方法可用于非线性可分情况,也可用于线性可分情况。

位势函数K(x,xk)与积累位势函数K(x)的关系为K(x) = ∑αkK(x,xk),其中xk∈X。

14、XXX判决准则适用于一种判决错误比另一种判决错误更为重要的情况,而最小最大判决准则适用于先验概率未知的情况。

15、特征个数越多并不一定有利于分类。

特征选择的主要目的是从n个特征中选出最有利于分类的m个特征(m<n),以降低特征维数。

在可分性判据对特征个数具有单调性且特征个数远小于样本数的情况下,可以使用分支定界法以减少计算量。

模式识别期末试题及答案

模式识别期末试题及答案

模式识别期末试题及答案正文:模式识别期末试题及答案1. 选择题1.1 下列关于机器学习的说法中,正确的是:A. 机器学习是一种人工智能的应用领域B. 机器学习只能应用于结构化数据C. 机器学习不需要预先定义规则D. 机器学习只能处理监督学习问题答案:A1.2 在监督学习中,以下哪个选项描述了正确的训练过程?A. 通过输入特征和预期输出,训练一个模型来进行预测B. 通过输入特征和可能的输出,训练一个模型来进行预测C. 通过输入特征和无标签的数据,训练一个模型来进行预测D. 通过输入特征和已有标签的数据,训练一个模型来进行分类答案:D2. 简答题2.1 请解释什么是模式识别?模式识别是指在给定一组输入数据的情况下,通过学习和建模,识别和分类输入数据中的模式或规律。

通过模式识别算法,我们可以从数据中提取重要的特征,并根据这些特征进行分类、聚类或预测等任务。

2.2 请解释监督学习和无监督学习的区别。

监督学习是一种机器学习方法,其中训练数据包含了输入特征和对应的标签或输出。

通过给算法提供已知输入和输出的训练样本,监督学习的目标是学习一个函数,将新的输入映射到正确的输出。

而无监督学习则没有标签或输出信息。

无监督学习的目标是从未标记的数据中找到模式和结构。

这种学习方法通常用于聚类、降维和异常检测等任务。

3. 计算题3.1 请计算以下数据集的平均值:[2, 4, 6, 8, 10]答案:63.2 请计算以下数据集的标准差:[1, 3, 5, 7, 9]答案:2.834. 综合题4.1 对于一个二分类问题,我们可以使用逻辑回归模型进行预测。

请简要解释逻辑回归模型的原理,并说明它适用的场景。

逻辑回归模型是一种用于解决二分类问题的监督学习算法。

其基本原理是通过将特征的线性组合传递给一个非线性函数(称为sigmoid函数),将实数值映射到[0,1]之间的概率。

这个映射的概率可以被解释为某个样本属于正类的概率。

逻辑回归适用于需要估计二分类问题的概率的场景,例如垃圾邮件分类、欺诈检测等。

模式识别与机器学习期末考查试题及参考答案

模式识别与机器学习期末考查试题及参考答案

模式识别与机器学习期末考查试卷研究生姓名:入学年份:导师姓名:试题1:简述模式识别与机器学习研究的共同问题和各自的研究侧重点。

答:(1)模式识别是研究用计算机来实现人类的模式识别能力的一门学科,是指对表征事物或现象的各种形式的信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程。

主要集中在两方面,一是研究生物体(包括人)是如何感知客观事物的,二是在给定的任务下,如何用计算机实现识别的理论和方法。

机器学习则是一门研究怎样用计算机来模拟或实现人类学习活动的学科,是研究如何使机器通过识别和利用现有知识来获取新知识和新技能。

主要体现以下三方面:一是人类学习过程的认知模型;二是通用学习算法;三是构造面向任务的专用学习系统的方法。

两者关心的很多共同问题,如:分类、聚类、特征选择、信息融合等,这两个领域的界限越来越模糊。

机器学习和模式识别的理论和方法可用来解决很多机器感知和信息处理的问题,其中包括图像/视频分析(文本、语音、印刷、手写)文档分析、信息检索和网络搜索等。

(2)机器学习和模式识别是分别从计算机科学和工程的角度发展起来的,各自的研究侧重点也不同。

模式识别的目标就是分类,为了提高分类器的性能,可能会用到机器学习算法。

而机器学习的目标是通过学习提高系统性能,分类只是其最简单的要求,其研究更侧重于理论,包括泛化效果、收敛性等。

模式识别技术相对比较成熟了,而机器学习中一些方法还没有理论基础,只是实验效果比较好。

许多算法他们都在研究,但是研究的目标却不同。

如SVM 在模式识别中研究所关心的就是其对人类效果的提高,偏工程。

而在机器学习中则更侧重于其性能上的理论证明。

试题2:列出在模式识别与机器学习中的常用算法及其优缺点。

答:(1) K近邻法KNN算法作为一种非参数的分类算法,它已经广泛应用于分类、回归和模式识别等。

在应用KNN算法解决问题的时候,要注意的两个方面是样本权重和特征权重。

优缺点:非常有效,实现简单,分类效果好。

大学模式识别考试题及答案详解完整版

大学模式识别考试题及答案详解完整版

大学模式识别考试题及答案详解HUA system office room 【HUA16H-TTMS2A-HUAS8Q8-HUAH1688】一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。

2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。

3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。

(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。

(1)(2) (3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。

(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。

(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。

(1)({A, B}, {0, 1}, {A01, A 0A1 , A 1A0 , B BA , B 0}, A)(2)({A}, {0, 1}, {A0, A 0A}, A)(3)({S}, {a, b}, {S 00S, S 11S, S 00, S 11}, S)(4)({A}, {0, 1}, {A01, A 0A1, A 1A0}, A)二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。

答:(1)分类准则,模式相似性测度,特征量的选择,量纲。

(2)证明:(2分)(2分)(1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。

模式识别期末考试试题

模式识别期末考试试题

模式识别期末考试试题# 模式识别期末考试试题## 一、选择题(每题2分,共20分)1. 模式识别中,特征提取的目的是什么?A. 降低数据维度B. 提高计算效率C. 增强数据的可解释性D. 以上都是2. 在K-近邻算法中,K值的选择对结果的影响是什么?A. 无影响B. 影响分类的准确性C. 影响算法的运行时间D. 影响数据的可读性3. 决策树算法中,信息增益的计算是基于以下哪个概念?A. 熵B. 互信息C. 条件熵D. 联合熵4. 支持向量机(SVM)的主要思想是?A. 寻找数据点之间的最大间隔B. 寻找数据点之间的最小间隔C. 寻找数据点的平均间隔D. 寻找数据点的中心点5. 以下哪个算法属于聚类算法?A. K-近邻B. 决策树C. K-均值D. 支持向量机## 二、简答题(每题10分,共30分)1. 描述主成分分析(PCA)的基本原理及其在模式识别中的应用。

2. 解释什么是过拟合(Overfitting)现象,并给出避免过拟合的几种常用方法。

3. 给出神经网络在模式识别中的基本工作原理,并说明其优缺点。

## 三、计算题(每题25分,共50分)1. 给定以下数据点,使用K-均值算法将它们分为两个簇,并说明算法的步骤:- 数据点:(1, 2), (2, 3), (5, 6), (8, 7), (9, 8)2. 假设有一个二维数据集,其中包含两类数据点,分别用圆形和三角形表示。

数据点的特征如下表所示:| 特征1 | 特征2 | 类别 || | | - || 1.5 | 2.5 | 圆形 || 2.0 | 3.0 | 圆形 || 3.5 | 4.5 | 三角形 || 4.0 | 5.0 | 三角形 |使用线性判别分析(LDA)方法,找出最佳线性边界,并将数据点分为两类。

## 四、论述题(共30分)1. 论述深度学习在图像识别领域的应用,并讨论其与传统机器学习方法相比的优势和局限性。

## 五、案例分析题(共30分)1. 假设你是一名数据科学家,你的团队正在开发一个用于识别手写数字的系统。

模式识别试题

模式识别试题

《模式识别》试题答案(A卷)一、填空与选择填空(本题答案写在此试卷上,30分)1、影响层次聚类算法结果的主要因素有(计算模式距离的测度、(聚类准则、类间距离门限、预定的类别数目))。

2、欧式距离具有( 1、2 );马式距离具有(1、2、3、4 )。

(1)平移不变性(2)旋转不变性(3)尺度缩放不变性(4)不受量纲影响的特性3、线性判别函数的正负和数值大小的几何意义是(正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离。

)。

4、感知器算法1。

(1)只适用于线性可分的情况;(2)线性可分、不可分都适用。

5、积累势函数法较之于H-K算法的优点是(该方法可用于非线性可分情况(也可用于线性可分情况));位势函数K(x,x k)与积累位势函数K(x)的关系为(∑∈=XxxxKxK~kkk),()(α).6、在统计模式分类问题中,聂曼—皮尔逊判决准则主要用于(某一种判决错误较另一种判决错误更为重要)情况;最小最大判决准则主要用于(先验概率未知的)情况。

7、“特征个数越多越有利于分类”这种说法正确吗?(错误)。

特征选择的主要目的是(从n个特征中选出最有利于分类的的m个特征(m〈n),以降低特征维数)。

一般在(可分性判据对特征个数具有单调性)和( C n m>〉n )的条件下,可以使用分支定界法以减少计算量。

8、散度Jij越大,说明ωi类模式与ωj类模式的分布(差别越大);当ωi类模式与ωj类模式的分布相同时,Jij=(0)。

9、已知有限状态自动机Af=(∑,Q,δ,q0,F),∑={0,1};Q={q0,q1};δ:δ(q0,0)= q1,δ(q0,1)= q1,δ(q1,0)=q0,δ(q1,1)=q0;q0=q0;F={q0}。

现有输入字符串:(a) 00011101011,(b) 1100110011,(c) 101100111000,(d)0010011,试问,用Af对上述字符串进行分类的结果为(ω1:{a,d};ω2:{b,c} ).二、(15分)在目标识别中,假定类型ω1为敌方目标,类型ω2为诱饵(假目标),已知先验概率P(ω1)=0.2和P(ω2)=0.8,类概率密度函数如下:⎧ x 0 ≤ x < 1 ⎧ x 1 1 ≤ x < 2p(x|ω1)=⎨ 2 - x 1 ≤ x ≤ 2 p(x|ω2)= ⎨ 3 - x 2 ≤ x ≤ 3⎩ 0 其它⎩ 0 其它(1)求贝叶斯最小误判概率准则下的判决域,并判断样本x=1.5属于哪一类(2)求总错误概率P(e);(3)假设正确判断的损失λ11=λ22=0,误判损失分别为λ12和λ21,若采用最小损失判决准则,λ12和λ21满足怎样的关系时,会使上述对x=1.5的判断相反?解:(1)应用贝叶斯最小误判概率准则如果则判得l12(1.5)=1 < =4,故 x=1。

大学模式识别考试题及答案详解

大学模式识别考试题及答案详解

一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。

2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。

3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。

(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。

(1)(2)(3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。

(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。

(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。

(1)({A, B}, {0, 1}, {A?01, A? 0A1 , A? 1A0 , B?BA , B? 0}, A) (2)({A}, {0, 1}, {A?0, A? 0A}, A)(3)({S}, {a, b}, {S ? 00S, S ? 11S, S ? 00, S ? 11}, S)(4)({A}, {0, 1}, {A?01, A? 0A1, A? 1A0}, A)二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。

答:(1)分类准则,模式相似性测度,特征量的选择,量纲。

(2)证明:(2分)(2分) (1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。

答:(1)(4分)的绝对值正比于到超平面的距离平面的方程可以写成式中。

模式识别答案

模式识别答案

模式识别试题二答案问答第1题答:在模式识别学科中,就“模式”与“模式类”而言,模式类是一类事物的代表,概念或典型,而“模式”则是某一事物的具体体现,如“老头”是模式类,而王先生则是“模式”,是“老头”的具体化。

问答第2题答:Mahalanobis距离的平方定义为:其中x,u为两个数据,是一个正定对称矩阵(一般为协方差矩阵)。

根据定义,距某一点的Mahalanobis距离相等点的轨迹是超椭球,如果是单位矩阵Σ,则Mahalanobis距离就是通常的欧氏距离。

问答第3题答:监督学习方法用来对数据实现分类,分类规则通过训练获得。

该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。

非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,如聚类,确定其分布的主分量等。

就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。

使用非监督学习方法,则依据道路路面象素与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。

问答第4题答:动态聚类是指对当前聚类通过迭代运算改善聚类;分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。

问答第5题答:在给定观察序列条件下分析它由某个状态序列S产生的概率似后验概率,写成P(S|O),而通过O求对状态序列的最大似然估计,与贝叶斯决策的最小错误率决策相当。

问答第6题答:协方差矩阵为,则1)对角元素是各分量的方差,非对角元素是各分量之间的协方差。

2)主分量,通过求协方差矩阵的特征值,用得,则,相应的特征向量为:,对应特征向量为,对应。

这两个特征向量即为主分量。

3) K-L变换的最佳准则为:对一组数据进行按一组正交基分解,在只取相同数量分量的条件下,以均方误差计算截尾误差最小。

4)在经主分量分解后,协方差矩阵成为对角矩阵,因而各主分量间相关消除。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。

2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。

3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。

(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。

(1)(2) (3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。

(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。

(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。

(1)({A, B}, {0, 1}, {A→01, A→ 0A1 , A→ 1A0 , B→BA , B→ 0}, A)(2)({A}, {0, 1}, {A→0, A→ 0A}, A)(3)({S}, {a, b}, {S → 00S, S → 11S, S → 00, S → 11}, S)(4)({A}, {0, 1}, {A→01, A→ 0A1, A→ 1A0}, A)9、影响层次聚类算法结果的主要因素有(计算模式距离的测度、(聚类准则、类间距离门限、预定的类别数目))。

10、欧式距离具有( 1、2 );马式距离具有(1、2、3、4 )。

(1)平移不变性(2)旋转不变性(3)尺度缩放不变性(4)不受量纲影响的特性11、线性判别函数的正负和数值大小的几何意义是(正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离。

)。

12、感知器算法1。

(1)只适用于线性可分的情况;(2)线性可分、不可分都适用。

13、积累势函数法较之于H-K算法的优点是(该方法可用于非线性可分情况(也可用于线性可分情况));位势函数K(x,x k)与积累位势函数K(x)的关系为(∑∈=XxxxKxK~kkk),()(α)。

14、在统计模式分类问题中,聂曼-皮尔逊判决准则主要用于(某一种判决错误较另一种判决错误更为重要)情况;最小最大判决准则主要用于(先验概率未知的)情况。

15、“特征个数越多越有利于分类”这种说法正确吗?(错误)。

特征选择的主要目的是(从n个特征中选出最有利于分类的的m个特征(m<n),以降低特征维数)。

一般在(可分性判据对特征个数具有单调性)和( C n m>>n )的条件下,可以使用分支定界法以减少计算量。

16、散度Jij越大,说明ωi类模式与ωj类模式的分布(差别越大);当ωi类模式与ωj类模式的分布相同时,Jij=(0)。

17、已知有限状态自动机Af=(∑,Q,δ,q0,F),∑={0,1};Q={q0,q1};δ:δ(q0,0)= q1,δ(q0,1)= q1,δ(q1,0)=q0,δ(q1,1)=q0;q0=q0;F={q0}。

现有输入字符串:(a) 00011101011,(b) 1100110011,(c) 101100111000,(d)0010011,试问,用Af对上述字符串进行分类的结果为(ω1:{a,d};ω2:{b,c} )。

18、影响聚类算法结果的主要因素有(②③④)。

①已知类别的样本质量;②分类准则;③特征选取;④模式相似性测度。

19、模式识别中,马式距离较之于欧式距离的优点是(③④)。

①平移不变性;②旋转不变性;③尺度不变性;④考虑了模式的分布。

20、基于二次准则函数的H-K算法较之于感知器算法的优点是(①③)。

①可以判别问题是否线性可分;②其解完全适用于非线性可分的情况;③其解的适应性更好;④计算量小。

21、影响基本C均值算法的主要因素有(④①②)。

①样本输入顺序;②模式相似性测度;③聚类准则;④初始类心的选取。

22、位势函数法的积累势函数K(x)的作用相当于Bayes判决中的(②④)。

①先验概率;②后验概率;③类概率密度;④类概率密度与先验概率的乘积。

23、在统计模式分类问题中,当先验概率未知时,可以使用(②④)。

①最小损失准则;②最小最大损失准则;③最小误判概率准则;④N-P判决。

24、在(①③)情况下,用分支定界法做特征选择计算量相对较少。

①C n d>>n,(n为原特征个数,d为要选出的特征个数);②样本较多;③选用的可分性判据J对特征数目单调不减;④选用的可分性判据J具有可加性。

25、散度J D是根据(③)构造的可分性判据。

①先验概率;②后验概率;③类概率密度;④信息熵;⑤几何距离。

26、似然函数的概型已知且为单峰,则可用(①②③④⑤)估计该似然函数。

①矩估计;②最大似然估计;③Bayes估计;④Bayes学习;⑤Parzen窗法。

27、Kn近邻元法较之Parzen窗法的优点是(②)。

①所需样本数较少;②稳定性较好;③分辨率较高;④连续性较好。

28、从分类的角度讲,用DKLT做特征提取主要利用了DKLT的性质:(①③)。

①变换产生的新分量正交或不相关;②以部分新的分量表示原矢量均方误差最小;③使变换后的矢量能量更趋集中;29、一般,剪辑k-NN最近邻方法在(①)的情况下效果较好。

①样本数较大;②样本数较小;③样本呈团状分布;④样本呈链状分布。

30、如果以特征向量的相关系数作为模式相似性测度,则影响聚类算法结果的主要因素有(②③)。

①已知类别样本质量;②分类准则;③特征选取;④量纲。

二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。

答:(1)分类准则,模式相似性测度,特征量的选择,量纲。

(2)证明:(2分)(2分)(1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。

答:(1)(4分)的绝对值正比于到超平面的距离平面的方程可以写成式中。

于是是平面的单位法矢量,上式可写成设是平面中的任一点,是特征空间中任一点,点到平面的距离为差矢量在上的投影的绝对值,即(1-1)上式中利用了在平面中,故满足方程式(1-1)的分子为判别函数绝对值,上式表明,的值正比于到超平面的距离,一个特征矢量代入判别函数后所得值的绝对值越大表明该特征点距判别界面越远。

(2)(4分)的正(负)反映在超平面的正(负)侧两矢量和的数积为(2分)显然,当和夹角小于时,即在指向的那个半空间中,>0;反之,当和夹角大于时,即在背向的那个半空间中,<0。

由于,故和同号。

所以,当在指向的半空间中时,;当在背向的半空间中,。

判别函数值的正负表示出特征点位于哪个半空间中,或者换句话说,表示特征点位于界面的哪一侧。

五、(12分,每问4分)在目标识别中,假定有农田和装甲车两种类型,类型ω1和类型ω2分别代表农田和装甲车,它们的先验概率分别为0.8和0.2,损失函数如表1所示。

现在做了三次试验,获得三个样本的类概率密度如下::0.3,0.1,0.6:0.7,0.8,0.3(1)试用贝叶斯最小误判概率准则判决三个样本各属于哪一个类型;(2)假定只考虑前两种判决,试用贝叶斯最小风险准则判决三个样本各属于哪一类;(3)把拒绝判决考虑在内,重新考核三次试验的结果。

表1解:由题可知:,,,,(1)(4分)根据贝叶斯最小误判概率准则知:,则可以任判;,则判为;,则判为;(2)(4分)由题可知:则,判为;,判为;,判为;(3)(4分)对于两类问题,对于样本,假设已知,有则对于第一个样本,,则拒判;,则拒判;,拒判。

1.监督学习与非监督学习的区别:监督学习方法用来对数据实现分类,分类规则通过训练获得。

该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。

非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,如聚类,确定其分布的主分量等。

(实例:道路图)就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。

使用非监督学习方法,则依据道路路面象素与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。

2.动态聚类是指对当前聚类通过迭代运算改善聚类;分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。

3. 线性分类器三种最优准则:Fisher准则:根据两类样本一般类内密集, 类间分离的特点,寻找线性分类器最佳的法线向量方向,使两类样本在该方向上的投影满足类内尽可能密集,类间尽可能分开。

该种度量通过类内离散矩阵Sw和类间离散矩阵Sb实现。

感知准则函数:准则函数以使错分类样本到分界面距离之和最小为原则。

其优点是通过错分类样本提供的信息对分类器函数进行修正,这种准则是人工神经元网络多层感知器的基础。

支持向量机:基本思想是在两类线性可分条件下,所设计的分类器界面使两类之间的间隔为最大, 它的基本出发点是使期望泛化风险尽可能小。

一、试问“模式”与“模式类”的含义。

如果一位姓王的先生是位老年人,试问“王先生”和“老头”谁是模式,谁是模式类?答:在模式识别学科中,就“模式”与“模式类”而言,模式类是一类事物的代表,概念或典型,而“模式”则是某一事物的具体体现,如“老头”是模式类,而王先生则是“模式”,是“老头”的具体化。

二、试说明Mahalanobis距离平方的定义,到某点的Mahalanobis距离平方为常数的轨迹的几何意义,它与欧氏距离的区别与联系。

答:Mahalanobis距离的平方定义为:其中x,u为两个数据,是一个正定对称矩阵(一般为协方差矩阵)。

根据定义,距某一点的Mahalanobis 距离相等点的轨迹是超椭球,如果是单位矩阵Σ,则Mahalanobis距离就是通常的欧氏距离。

三、试说明用监督学习与非监督学习两种方法对道路图像中道路区域的划分的基本做法,以说明这两种学习方法的定义与它们间的区别。

答:监督学习方法用来对数据实现分类,分类规则通过训练获得。

该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。

非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,如聚类,确定其分布的主分量等。

就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。

相关文档
最新文档