清华大学模式识别往年考题2

合集下载

模式识别练习题

模式识别练习题

模式识别练习(1)主题:1.“基于最小错误率的贝叶斯决策”模式识别练习2.“基于最小风险的贝叶斯决策”模式识别练习3.基于“主成分分析”的贝叶斯决策模式识别练习已知训练样本集由“”、“”组成:={(0,0),(0,1),(1,0)};={(4,4),(4,5),(5,4),(5,5)},而测试样本集为C={(2,2),(2.2,2.2),(3,3)}。

(1)利用“基于最小错误率的贝叶斯决策”判别测试集为C中的样本的归类;(2)利用“基于最小风险的贝叶斯决策”判别测试集为C中的样本的归类;(3)在进行“主成分分析”的基础上,采用90%的主成分完成前面的(1)、(2),比较结果的异同。

模式识别练习(2)主题:很多情况下,希望样本维数(特征数)越少越好,降维是解决问题的一个有效的方法。

主成分分析希望得到较少的特征数,而Fisher准则方法则将维数直接降到1维。

一、已知训练样本集由“”、“”组成:={(0,0),(0,1),(1,0)};={(4,4),(4,5),(5,4),(5,5)},而测试样本集为C={(i,i)|i=0:0.005:5}。

分别利用基于最小错误率的贝叶斯决策、基于最小风险的贝叶斯决策、仅使用第一主成分、使用Fisher准则等四种方法(自编函数文件或用书上的函数文件)计算出测试集C中线段(0,0)-(5,5)的临界点;要求:将计算结果自动写入数据文件中二、已知训练样本集为教材上的10类手写数字集。

分别利用基于最小错误率的贝叶斯决策、基于最小风险的贝叶斯决策、仅使用第一主成分、使用Fisher准则等四种方法,统计出各大类的错误率和计算机cpu的计算时间,采用的测试集C依旧是10类手写数字集(虽然分类已知,但用不同的方法实际判别时可能有误判情况!)要求:使用书上的函数文件,并将计算结果自动写入数据文件中模式识别练习(3)一、已知训练样本集由“”、“”组成:={(0,0),(0,1),(1,0)};={(4,4),(4,5),(5,4),(5,5)},而测试样本集为C={(i,i)|i=0:0.01:5}。

大学模式识别考试题及答案详解

大学模式识别考试题及答案详解

大学模式识别考试题及答案详解Document number:PBGCG-0857-BTDO-0089-PTT1998一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。

2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。

3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。

(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。

(1)(2) (3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。

(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。

(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。

(1)({A, B}, {0, 1}, {A?01, A? 0A1 , A? 1A0 , B?BA , B? 0}, A)(2)({A}, {0, 1}, {A?0, A? 0A}, A)(3)({S}, {a, b}, {S ? 00S, S ? 11S, S ? 00, S ? 11}, S)(4)({A}, {0, 1}, {A?01, A? 0A1, A? 1A0}, A)二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。

答:(1)分类准则,模式相似性测度,特征量的选择,量纲。

(2)证明:(2分)(2分)(1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。

模式识别期末试题及答案

模式识别期末试题及答案

模式识别期末试题及答案正文:模式识别期末试题及答案1. 选择题1.1 下列关于机器学习的说法中,正确的是:A. 机器学习是一种人工智能的应用领域B. 机器学习只能应用于结构化数据C. 机器学习不需要预先定义规则D. 机器学习只能处理监督学习问题答案:A1.2 在监督学习中,以下哪个选项描述了正确的训练过程?A. 通过输入特征和预期输出,训练一个模型来进行预测B. 通过输入特征和可能的输出,训练一个模型来进行预测C. 通过输入特征和无标签的数据,训练一个模型来进行预测D. 通过输入特征和已有标签的数据,训练一个模型来进行分类答案:D2. 简答题2.1 请解释什么是模式识别?模式识别是指在给定一组输入数据的情况下,通过学习和建模,识别和分类输入数据中的模式或规律。

通过模式识别算法,我们可以从数据中提取重要的特征,并根据这些特征进行分类、聚类或预测等任务。

2.2 请解释监督学习和无监督学习的区别。

监督学习是一种机器学习方法,其中训练数据包含了输入特征和对应的标签或输出。

通过给算法提供已知输入和输出的训练样本,监督学习的目标是学习一个函数,将新的输入映射到正确的输出。

而无监督学习则没有标签或输出信息。

无监督学习的目标是从未标记的数据中找到模式和结构。

这种学习方法通常用于聚类、降维和异常检测等任务。

3. 计算题3.1 请计算以下数据集的平均值:[2, 4, 6, 8, 10]答案:63.2 请计算以下数据集的标准差:[1, 3, 5, 7, 9]答案:2.834. 综合题4.1 对于一个二分类问题,我们可以使用逻辑回归模型进行预测。

请简要解释逻辑回归模型的原理,并说明它适用的场景。

逻辑回归模型是一种用于解决二分类问题的监督学习算法。

其基本原理是通过将特征的线性组合传递给一个非线性函数(称为sigmoid函数),将实数值映射到[0,1]之间的概率。

这个映射的概率可以被解释为某个样本属于正类的概率。

逻辑回归适用于需要估计二分类问题的概率的场景,例如垃圾邮件分类、欺诈检测等。

大学模式识别考试题及答案详解

大学模式识别考试题及答案详解

大学模式识别考试题及答案详解Last revision on 21 December 2020一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。

2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。

3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。

(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。

(1)(2) (3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。

(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。

(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。

(1)({A, B}, {0, 1}, {A01, A 0A1 , A 1A0 , B BA , B 0}, A)(2)({A}, {0, 1}, {A0, A 0A}, A)(3)({S}, {a, b}, {S 00S, S 11S, S 00, S 11}, S)(4)({A}, {0, 1}, {A01, A 0A1, A 1A0}, A)二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些(2)证明马氏距离是平移不变的、非奇异线性变换不变的。

答:(1)分类准则,模式相似性测度,特征量的选择,量纲。

(2)证明:(2分)(2分)(1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。

大学模式识别考试题及答案详解完整版

大学模式识别考试题及答案详解完整版

大学模式识别考试题及答案详解HUA system office room 【HUA16H-TTMS2A-HUAS8Q8-HUAH1688】一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。

2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。

3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。

(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。

(1)(2) (3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。

(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。

(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。

(1)({A, B}, {0, 1}, {A01, A 0A1 , A 1A0 , B BA , B 0}, A)(2)({A}, {0, 1}, {A0, A 0A}, A)(3)({S}, {a, b}, {S 00S, S 11S, S 00, S 11}, S)(4)({A}, {0, 1}, {A01, A 0A1, A 1A0}, A)二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。

答:(1)分类准则,模式相似性测度,特征量的选择,量纲。

(2)证明:(2分)(2分)(1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。

模式识别作业题(2)

模式识别作业题(2)


∏ p( x | μ ) p( μ )
i =1 i
N


i =1
N
⎡ 1 ⎢ exp ⎢ − 2πσ ⎢ ⎣
( xi − μ )

2
2
⎤ ⎡ 1 ⎥ ⎢ ⎥ • 2πσ exp ⎢ − 0 ⎥ ⎢ ⎦ ⎣
( μ − μ0 ) ⎤⎥ ⎥ 2σ ⎥ 0 ⎦
2 2
= α exp ⎢ − [⎜
''
⎡ 1 ⎛ N ⎛ 1 1 ⎞ 2 μ + − 2 ⎟ ⎜ 2 2 σ 02 ⎟ 2 ⎜ ⎢ ⎝σ σ ⎝ ⎠ ⎣
2 1 N +C ( x − μ ) ∑ 2 i =1 i
似然函数 μ 求导
∂L( μ ) N = ∑ x -N μ =0 i ∂μ i =1

所以 μ 的最大似然估计: μ =
1 N
∑ xi
i =1
N
贝叶斯估计: p( μ |X)=
p( X | μ ) p( μ )
∫ p( X | μ ) p(μ )du
2 σn =
σ 02σ 2 2 Nσ 0 +σ 2
其中, mN =
1 N
∑x ,μ
i =1 i
N
n
就是贝叶斯估计。
7 略
得证。 3、使用最小最大损失判决规则的错分概率是最小吗?为什么?
答:不是最小的。首先要明确当我们谈到最小最大损失判决规则时,先验概率是未知的, 而先验概率的变化会导致错分概率变化, 故错分概率也是一个变量。 使用最小最大损 失判决规则的目的就是保证在先验概率任意变化导致错分概率变化时, 错分概率的最 坏(即最大)情况在所有判决规则中是最好的(即最小)。 4、 若 λ11 = λ22 =0, λ12 = λ21 ,证明此时最小最大决策面是来自两类的错误率相等。 证明:最小最大决策面满足 ( λ11 - λ22 )+( λ21 - λ11 ) 容易得到

模式识别练习题

模式识别练习题

2013模式识别练习题一. 填空题1、模式识别系统的基本构成单元包括: 模式采集、特征选择与提取和模式分类。

2、统计模式识别中描述模式的方法一般使用特征矢量;句法模式识别中模式描述方法一般有串、树、网。

3、影响层次聚类算法结果的主要因素有计算模式距离的测度、聚类准则、类间距离阈值、预定的类别数目。

4、线性判别函数的正负和数值大小的几何意义是正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离。

5、感知器算法1,H-K算法(2)。

(1)只适用于线性可分的情况;(2)线性可分、不可分都适用。

6、在统计模式分类问题中,聂曼—皮尔逊判决准则主要用于某一种判决错误较另一种判决错误更为重要情况;最小最大判别准则主要用于先验概率未知的情况.7、“特征个数越多越有利于分类”这种说法正确吗?错误。

特征选择的主要目的是从n个特征中选出最有利于分类的的m个特征(m<n),以降低特征维数。

一般在可分性判据对特征个数具有单调性和(C n m〉〉n )的条件下,可以使用分支定界法以减少计算量。

8、散度J ij越大,说明ωi类模式与ωj类模式的分布差别越大;当ωi类模式与ωj类模式的分布相同时,J ij= 0 。

二、选择题1、影响聚类算法结果的主要因素有( B C D)。

A.已知类别的样本质量;B。

分类准则;C.特征选取;D。

模式相似性测度2、模式识别中,马式距离较之于欧式距离的优点是( C D)。

A.平移不变性;B。

旋转不变性;C尺度不变性;D。

考虑了模式的分布3、影响基本K-均值算法的主要因素有( D A B)。

A.样本输入顺序;B.模式相似性测度;C。

聚类准则;D。

初始类中心的选取4、位势函数法的积累势函数K(x)的作用相当于Bayes判决中的( B D).A. 先验概率;B. 后验概率;C。

类概率密度;D. 类概率密度与先验概率的乘积5、在统计模式分类问题中,当先验概率未知时,可以使用(B D)。

模式识别答案

模式识别答案

模式识别试题二答案问答第1题答:在模式识别学科中,就“模式”与“模式类”而言,模式类是一类事物的代表,概念或典型,而“模式”则是某一事物的具体体现,如“老头”是模式类,而王先生则是“模式”,是“老头”的具体化。

问答第2题答:Mahalanobis距离的平方定义为:其中x,u为两个数据,是一个正定对称矩阵(一般为协方差矩阵)。

根据定义,距某一点的Mahalanobis距离相等点的轨迹是超椭球,如果是单位矩阵Σ,则Mahalanobis距离就是通常的欧氏距离。

问答第3题答:监督学习方法用来对数据实现分类,分类规则通过训练获得。

该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。

非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,如聚类,确定其分布的主分量等。

就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。

使用非监督学习方法,则依据道路路面象素与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。

问答第4题答:动态聚类是指对当前聚类通过迭代运算改善聚类;分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。

问答第5题答:在给定观察序列条件下分析它由某个状态序列S产生的概率似后验概率,写成P(S|O),而通过O求对状态序列的最大似然估计,与贝叶斯决策的最小错误率决策相当。

问答第6题答:协方差矩阵为,则1)对角元素是各分量的方差,非对角元素是各分量之间的协方差。

2)主分量,通过求协方差矩阵的特征值,用得,则,相应的特征向量为:,对应特征向量为,对应。

这两个特征向量即为主分量。

3) K-L变换的最佳准则为:对一组数据进行按一组正交基分解,在只取相同数量分量的条件下,以均方误差计算截尾误差最小。

4)在经主分量分解后,协方差矩阵成为对角矩阵,因而各主分量间相关消除。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

模式识别张长水2007.7.1 14:00-16:00
1 (15分)两类分类问题,P(w1)=1/4,P(w2)=3/4。

样本有两个特征,分别是x和y。

两类?的概率密度函数:w1,在0<=x<=3、0<=y<=3中均匀分布,其余为0;w2,在2<=x<=5、1<=y<=7
中均匀分布,其余为0。

请设计做小错误率贝叶斯分类器,并计算误分率。

2 (20分)支持向量机通过二次最优化得到支持向量。

现在有一个两类分类问题,共有N 个
样本,样本有d维特征空间,样本集合是线性可分的。

试使用遗传算法求解支持向量,说明算法步骤和使用的遗传算子。

使用遗传算法求解支持向量有什么优缺点?
3 (20分)两类分类问题,有3个特征x,y,z,共有N个样本。

通过经验知道将3个特征进行加权相加得到的特征将具有更好的分类性能,但是不知道如何得到各个特征的权重。

试回答?
如何得到各个特征的权重。

给出必要的计算和推导过程。

4 (15分)使用多级聚类算法对下面的样本进行聚类,使用最近距离量度。

给出计算过程,多级聚类树。

问应该分成几类,为什么?举例说明使用最近距离量度聚类和使用最远距离量度聚类各自的优缺点。

(1,0) (2,0) (0,2) (1,3) (0,5)
5 (20分)距离是模式识别中的重要概念,试说明贝叶斯分类器、近邻法、Fisher投影法、C均值算法是否受不同距离量度选择的影响。

如果不是,说明原因;如果是,举例说明受什么影响。

6 (10分)一个袋子中装有红、绿、蓝三种颜色的球,采用有放回的取球方法,取出N个球
,其中有n1个红色球、n2个绿色球和n3个蓝色球的概率为
p(n1,n2,n3)=(N!/(n1!n2!n3!))*p1^n1*p2^n2*p3^n3
其中n1+n2+n3=N,p1+p2+p3=1
已知概率模型如下:p1=1/4 p2=1/4+p/4 p3=1/2-p/4
如果一个人是红绿色盲,分不清红色球和绿色球,那么他只能知道他取了m1=n1+n2个红/绿
球,和m2=n3个蓝色球。

试通过这些数据估计概率模型中的p,并估计红色球和绿色球的数?。

--------------------------------
不出意外的话应该是在清华最后一门考试了,复习的时候又极其痛苦,500+张ppt,
很多公式要理解要背,所以得纪念一下,粗略回忆一下今天考的内容,给后面的同
学留点参考吧
(这里研究生的考试题实在有点稀少)
模式识别林行刚(电子系)期末闭卷2008.6.27
一、判断对错40*0.5 = 20分
[1m [0;37m考的题很细,涉及了各个方面,比如[m
[1m [0;37m简单模式匹配、K-L变换(2题)、最小欧氏距离、权向量定义、近邻函数定义、[m
单个神经元分类是否是线性的、子空间(1题)、
“最小马氏距离分类器的错误概率一定不会比最小欧氏距离分类器的错误率大”。

二、对现有算法的理解5*5=25
1、s个类,可以用s(s-1)/2个线性分类器分开,称为这个样本集成对线性可分。

举例
二、对现有算法的理解5*5=25
1、s个类,可以用s(s-1)/2个线性分类器分开,称为这个样本集成对线性可分。

举例
说明,成对线性可分不一定线性可分。

2、定义相似度为20-min (d{Xi,Xj})(Xi属于类wi,Xj属于类wj),其中d{Xi,Xj}表示
两个样本之间的欧氏距离,给了一组样本10个数据,
{-2.2,-2.0,-0.3,0.1,0.2,0.4,1.6,1.7,1.9,2.0}(好像是这样),请画出层次
聚类算法的分类树,并说明最终聚为几个类比较好。

3、KMP算法,对于在字符串text[1,2,...,n]中查找字串pat[1,2,...,m],当匹配到
pat中的p[j]发现不匹配时,
1)应该怎样确定下一个pat开始查找的位置next[j];
2)给出4个pat形式,写出对于所有j值写出next[j]的值。

四个形式大概是abcd,abca aaad,abcadbab(最后一个不确定)
3)什么情况是最坏情况,最坏要进行多少次比较
4、给定字符串abbc和abcbc,给出求解编辑距离的步骤图并给节点标上最小费用,求编
辑距离,画出最小路径,简要说明寻找最小费用路径的步骤。

4、给定字符串abbc和abcbc,给出求解编辑距离的步骤图并给节点标上最小费用,求编
辑距离,画出最小路径,简要说明寻找最小费用路径的步骤。

5、(似作业题)设有符合正态分布的两类样本,p(w1)=p(w2)=0.5,
w1={(3,4),(3,8),(2,6),(4,6)},w2={(3,0),(3,-4),(1,-2),(5,-2)},求:
1)识别函数
2)识别界面,画出示意图
3)如果p(w1)=0.1,p(w2)=0.9,请问识别界面会有什么变化?
4)如果要使识别界面成为双曲线,那么样本应该做怎样的调整?
三、实验设计15
各省都有简称,比如京、津、鄂、鲁、豫等,共达三十余个类,需要用楷、行等6 种字体进行印刷,请设计分类器识别省市简称。

印刷中,字体不同,质量不同,有粗细差别甚至缺失。

1)为了设计分类器,你将怎样搜集和准备数据
2)你将怎样对对象进行描述,即怎样进行特征抽取和选择
3)你怎样设计分类器和确定参数
4)怎样测试数据和评估精度
三、实验设计15
各省都有简称,比如京、津、鄂、鲁、豫等,共达三十余个类,需要用楷、行等6 种字体进行印刷,请设计分类器识别省市简称。

印刷中,字体不同,质量不同,有粗细差别甚至缺失。

1)为了设计分类器,你将怎样搜集和准备数据
2)你将怎样对对象进行描述,即怎样进行特征抽取和选择
3)你怎样设计分类器和确定参数
4)怎样测试数据和评估精度
结语:时间很紧,得快,另外概念的东西考的很细,需要确实的理解。

期末占60%,平? 小作业20%,大实验20%,号称成绩是以82为期望的正态分布。

总的来说林行刚老师还是比自动化的张长水的模式识别正常一点,如果要上模式识别? 话建议选他的。

------------07
模式识别林行刚2007.6
bow to: zhouguangyip@free,在此基础上修改完善的:)
另外,这门课的给分:平均分80,正态分布,90以上和70以下的各占10%.
一,判断对错题(40*0.5=20)
考得很细…
课件要仔细看,不过感觉有好多都是老师上课时讲解的,课件上并没写,可惜没仔细听课…?
二.问答计算(4*6=24)
1.一个二次判决函数d(x)=7+3x+15x^2
(1)将它化成一个广义齐次线性判决函数;
(2)简述对于一般的高次判决函数怎样化成广义齐次线性判决函数。

2.s个类,可以用s(s-1)/2个线性分类器分开,称为这s个类成对线性可分。

举例说明,成对线性可分不一定线性可分。

3.模糊数学问题:
依据经验定义“凌晨”“白天”“夜晚”在X属于[0,24]时间内的模糊隶属度函数。

以此例说明一下隶属度函数和概率的区别。

4.关于Bayes分类器
(1)为什么Bayes分类器得到的是最小错误概率分类。

4.关于Bayes分类器
(1)为什么Bayes分类器得到的是最小错误概率分类。

(2)写出A.P(w1)=P(w2);N.P(X|w1)=P(X|w2)两种情况下的Bayes分类函数。

(3)什么情况下Bayes分类器与最小欧氏距离分类器错误概率相同。

(4)什么情况下最小马氏举例分类器比最小欧氏距离分类器错误概率小。

5.SVM,给了两类六个点:w1:(0,0)(1,0)(0,1);w2:(1,1)(2,0)(2,2)
(1)画图给出最优界面的权向量
(2)标出支持向量
6.有穷状态机问题
(1)给出有穷状态机的5个元素
(2)说明为什么有穷状态机能解决“无穷个对象”的问题。

(3)给3个字符串的例子,并画出相应的有穷状态机
(4)给2个不能用有穷状态机解决的例子
三.实验设计(16分)
给出了10个人的照片,某实验室只允许这10个人进入,做一个人脸识别的分类器。

(1)写出分类器的设计方法,包括模式选取,设计步骤,判决过程。

(2)如何检测设计的分类器的分类错误率。

(3)怎样解决由于光照、拍摄角度、发型变化等因素对分类器的影响。

(4)对于不是这10个人的第11个人来,怎样处理。

相关文档
最新文档