(完整word版)模式识别习题解答第三章(word文档良心出品)
模式识别作业题(2)

答:不是最小的。首先要明确当我们谈到最小最大损失判决规则时,先验概率是未知的, 而先验概率的变化会导致错分概率变化, 故错分概率也是一个变量。 使用最小最大损 失判决规则的目的就是保证在先验概率任意变化导致错分概率变化时, 错分概率的最 坏(即最大)情况在所有判决规则中是最好的(即最小)。 4、 若 λ11 = λ22 =0, λ12 = λ21 ,证明此时最小最大决策面是来自两类的错误率相等。 证明:最小最大决策面满足 ( λ11 - λ22 )+( λ21 - λ11 ) 容易得到
λ11 P(ω1 | x) + λ12 P(ω2 | x) < λ21 P(ω1 | x) + λ22 P(ω2 | x) ( λ21 - λ11 ) P (ω1 | x) >( λ12 - λ22 ) P (ω2 | x) ( λ21 - λ11 ) P (ω1 ) P ( x | ω1 ) >( λ12 - λ22 ) P (ω2 ) P ( x | ω2 ) p( x | ω1 ) (λ 12 − λ 22) P(ω2 ) > 即 p( x | ω2 ) ( λ 21 − λ 11) P (ω1 )
6、设总体分布密度为 N( μ ,1),-∞< μ <+∞,并设 X={ x1 , x2 ,… xN },分别用最大似然 估计和贝叶斯估计计算 μ 。已知 μ 的先验分布 p( μ )~N(0,1)。 解:似然函数为:
∧Байду номын сангаас
L( μ )=lnp(X|u)=
∑ ln p( xi | u) = −
i =1
N
模式识别第三章作业及其解答
(完整word版)马原课机考试题库第三章试题及答案(2018年5月)(word文档良心出品)

10.先进的社会意识之所以对社会存在起促进作用,在于:() A.它不完全受具体的社会存在和社会实践的制约 ( ) B.它有相对独立性 ( ) C.意识形态诸形式之间的相互协调 ( ) D.它符合了社会发展的客观规律 (√)
17.社会物质生活条件是指:() A.自然界 ( ) B.人口因素 ( ) C.地理环境 ( ) D.地理环境、人口因素和生产方式的总和 (√)
18.测度生产力水平的客观尺度是:() A.劳动工具的状况 (√) B.劳动对象的广度和深度 ( ) C.劳动者的主体素质 ( ) D.劳动产品的数量和质量 ( )
ห้องสมุดไป่ตู้
C.人与人的物质利益关系 (√) D.人们之间的分工协作关系 ( )
22.划分不同性质的社会制度的根本标准是:() A.占统治地位的生产关系的性质 (√) B.生产力的发展水平 ( ) C.科学技术水平 ( ) D.国家政权的性质 ( )
23.判断一种生产关系是否先进的根本标志是看它:() A.是生产资料私有制还是公有制 ( ) B.是促进还是阻碍生产力的发展 (√) C.是社会化大生产还是个体小生产 ( ) D.是自然经济还是市场经济 ( )
7.群体意识是:() A.集体主义的产物 ( ) B.个体意识的总汇 ( ) C.群体共同意识的产物 ( ) D.群体实践的产物 (√)
8.人类社会的发展是自然历史过程的含义是:() A.人类社会的发展像自然界一样有其规律性 (√) B.社会发展史与自然界的发展史完全相同 ( ) C.社会的发展进程不受人们主观意志的影响 ( ) D.社会的发展是一个不包含偶然性的必然过程 ( )
模式识别习题解答第三章

模式识别习题解答第三章案场各岗位服务流程销售大厅服务岗:1、销售大厅服务岗岗位职责:1)为来访客户提供全程的休息区域及饮品;2)保持销售区域台面整洁;3)及时补足销售大厅物资,如糖果或杂志等;4)收集客户意见、建议及现场问题点;2、销售大厅服务岗工作及服务流程阶段工作及服务流程班前阶段1)自检仪容仪表以饱满的精神面貌进入工作区域2)检查使用工具及销售大厅物资情况,异常情况及时登记并报告上级。
班中工作程序服务流程行为规范迎接指引递阅资料上饮品(糕点)添加茶水工作要求1)眼神关注客人,当客人距3米距离时,应主动跨出自己的位置迎宾,然后侯客迎询问客户送客户注意事项15度鞠躬微笑问候:“您好!欢迎光临!”2)在客人前方1-2米距离领位,指引请客人向休息区,在客人入座后问客人对座位是否满意:“您好!请问坐这儿可以吗?”得到同意后为客人拉椅入座“好的,请入座!”3)若客人无置业顾问陪同,可询问:请问您有专属的置业顾问吗?,为客人取阅项目资料,并礼貌的告知请客人稍等,置业顾问会很快过来介绍,同时请置业顾问关注该客人;4)问候的起始语应为“先生-小姐-女士早上好,这里是XX销售中心,这边请”5)问候时间段为8:30-11:30 早上好11:30-14:30 中午好 14:30-18:00下午好6)关注客人物品,如物品较多,则主动询问是否需要帮助(如拾到物品须两名人员在场方能打开,提示客人注意贵重物品);7)在满座位的情况下,须先向客人致歉,在请其到沙盘区进行观摩稍作等待;阶段工作及服务流程班中工作程序工作要求注意事项饮料(糕点服务)1)在所有饮料(糕点)服务中必须使用托盘;2)所有饮料服务均已“对不起,打扰一下,请问您需要什么饮品”为起始;3)服务方向:从客人的右面服务;4)当客人的饮料杯中只剩三分之一时,必须询问客人是否需要再添一杯,在二次服务中特别注意瓶口绝对不可以与客人使用的杯子接触;5)在客人再次需要饮料时必须更换杯子;下班程序1)检查使用的工具及销售案场物资情况,异常情况及时记录并报告上级领导;2)填写物资领用申请表并整理客户意见;3)参加班后总结会;4)积极配合销售人员的接待工作,如果下班时间已经到,必须待客人离开后下班;1.3.3.3吧台服务岗1.3.3.3.1吧台服务岗岗位职责1)为来访的客人提供全程的休息及饮品服务;2)保持吧台区域的整洁;3)饮品使用的器皿必须消毒;4)及时补充吧台物资;5)收集客户意见、建议及问题点;1.3.3.3.2吧台服务岗工作及流程阶段工作及服务流程班前阶段1)自检仪容仪表以饱满的精神面貌进入工作区域2)检查使用工具及销售大厅物资情况,异常情况及时登记并报告上级。
模式识别(三)课后上机作业参考解答

“模式识别(三).PDF”课件课后上机选做作业参考解答(武大计算机学院袁志勇, Email: yuanzywhu@) 上机题目:两类问题,已知四个训练样本ω1={(0,0)T,(0,1)T};ω2={(1,0)T,(1,1)T}使用感知器固定增量法求判别函数。
设w1=(1,1,1)Tρk=1试编写程序上机运行(使用MATLAB、 C/C++、C#、JA V A、DELPHI等语言中任意一种编写均可),写出判别函数,并给出程序运行的相关运行图表。
这里采用MATLAB编写感知器固定增量算法程序。
一、感知器固定增量法的MATLAB函数编写感知器固定增量法的具体内容请参考“模式识别(三).PDF”课件中的算法描述,可将该算法编写一个可以调用的自定义MATLAB函数:% perceptronclassify.m%% Caculate the optimal W by Perceptron%% W1-3x1 vector, initial weight vector% Pk-scalar, learning rate% W -3x1 vector, optimal weight vector% iters - scalar, the number of iterations%% Created: May 17, 2010function [W iters] = perceptronclassify(W1,Pk)x1 = [0 0 1]';x2 = [0 1 1]';x3 = [1 0 1]';x4 = [1 1 1]';% the training sampleWk = W1;FLAG = 0;% iteration flagesiters = 0;if Wk'*x1 <= 0Wk =Wk + x1;FLAG = 1;endif Wk'*x2 <= 0Wk =Wk + x2;FLAG = 1;endif Wk'*x3 >= 0Wk=Wk-x3;FLAG = 1; endif Wk'*x4 >= 0Wk =Wk -x4; FLAG = 1; enditers = iters + 1; while (FLAG) FLAG = 0; if Wk'*x1 <= 0Wk = Wk + x1; FLAG = 1; endif Wk'*x2 <= 0Wk = Wk + x2; FLAG = 1; endif Wk'*x3 >= 0 Wk = Wk - x3; FLAG = 1; endif Wk'*x4 >= 0 Wk = Wk - x4; FLAG = 1; enditers = iters + 1; endW = Wk;二、程序运行程序输入:初始权向量1W , 固定增量大小k ρ 程序输出:权向量最优解W , 程序迭代次数iters 在MATLAB 7.X 命令行窗口中的运行情况: 1、初始化1[111]T W = 初始化W 1窗口界面截图如下:2、初始化1kρ=初始化Pk 窗口界面截图如下:3、在MATLAB 窗口中调用自定义的perceptronclassify 函数由于perceptronclassify.m 下自定义的函数文件,在调用该函数前需要事先[Set path…]设置该函数文件所在的路径,然后才能在命令行窗口中调用。
模式识别习题及答案

模式识别习题及答案模式识别习题及答案模式识别是人类智能的重要组成部分,也是机器学习和人工智能领域的核心内容。
通过模式识别,我们可以从大量的数据中发现规律和趋势,进而做出预测和判断。
本文将介绍一些模式识别的习题,并给出相应的答案,帮助读者更好地理解和应用模式识别。
习题一:给定一组数字序列,如何判断其中的模式?答案:判断数字序列中的模式可以通过观察数字之间的关系和规律来实现。
首先,我们可以计算相邻数字之间的差值或比值,看是否存在一定的规律。
其次,我们可以将数字序列进行分组,观察每组数字之间的关系,看是否存在某种模式。
最后,我们还可以利用统计学方法,如频率分析、自相关分析等,来发现数字序列中的模式。
习题二:如何利用模式识别进行图像分类?答案:图像分类是模式识别的一个重要应用领域。
在图像分类中,我们需要将输入的图像分为不同的类别。
为了实现图像分类,我们可以采用以下步骤:首先,将图像转换为数字表示,如灰度图像或彩色图像的像素矩阵。
然后,利用特征提取算法,提取图像中的关键特征。
接下来,选择合适的分类算法,如支持向量机、神经网络等,训练模型并进行分类。
最后,评估分类结果的准确性和性能。
习题三:如何利用模式识别进行语音识别?答案:语音识别是模式识别在语音信号处理中的应用。
为了实现语音识别,我们可以采用以下步骤:首先,将语音信号进行预处理,包括去除噪声、降低维度等。
然后,利用特征提取算法,提取语音信号中的关键特征,如梅尔频率倒谱系数(MFCC)。
接下来,选择合适的分类算法,如隐马尔可夫模型(HMM)、深度神经网络(DNN)等,训练模型并进行语音识别。
最后,评估识别结果的准确性和性能。
习题四:如何利用模式识别进行时间序列预测?答案:时间序列预测是模式识别在时间序列分析中的应用。
为了实现时间序列预测,我们可以采用以下步骤:首先,对时间序列进行平稳性检验,确保序列的均值和方差不随时间变化。
然后,利用滑动窗口或滚动平均等方法,将时间序列划分为训练集和测试集。
模式识别习题及答案-精品资料

第一章 绪论1.什么是模式?具体事物所具有的信息。
模式所指的不是事物本身,而是我们从事物中获得的___信息__。
2.模式识别的定义?让计算机来判断事物。
3.模式识别系统主要由哪些部分组成?数据获取—预处理—特征提取与选择—分类器设计/ 分类决策。
第二章 贝叶斯决策理论1.最小错误率贝叶斯决策过程? 答:已知先验概率,类条件概率。
利用贝叶斯公式 得到后验概率。
根据后验概率大小进行决策分析。
2.最小错误率贝叶斯分类器设计过程?答:根据训练数据求出先验概率类条件概率分布 利用贝叶斯公式得到后验概率 如果输入待测样本X ,计算X 的后验概率根据后验概率大小进行分类决策分析。
3.最小错误率贝叶斯决策规则有哪几种常用的表示形式?答:4.贝叶斯决策为什么称为最小错误率贝叶斯决策?答:最小错误率Bayes 决策使得每个观测值下的条件错误率最小因而保证了(平均)错误率 最小。
Bayes 决策是最优决策:即,能使决策错误率最小。
5.贝叶斯决策是由先验概率和(类条件概率)概率,推导(后验概率)概率,然后利用这个概率进行决策。
6.利用乘法法则和全概率公式证明贝叶斯公式答:∑====m j Aj p Aj B p B p A p A B p B p B A p AB p 1)()|()()()|()()|()(所以推出贝叶斯公式7.朴素贝叶斯方法的条件独立假设是(P(x| ωi) =P(x1, x2, …, xn | ωi)⎩⎨⎧∈>=<211221_,)(/)(_)|()|()(w w x w p w p w x p w x p x l 则如果∑==21)()|()()|()|(j j j i i i w P w x P w P w x P x w P 2,1),(=i w P i 2,1),|(=i w x p i ∑==21)()|()()|()|(j j j i i i w P w x P w P w x P x w P ∑===M j j j i i i i i A P A B P A P A B P B P A P A B P B A P 1)()|()()|()()()|()|(= P(x1| ωi) P(x2| ωi)… P(xn| ωi))8.怎样利用朴素贝叶斯方法获得各个属性的类条件概率分布?答:假设各属性独立,P(x| ωi) =P(x1, x2, …, xn | ωi) = P(x1| ωi) P(x2| ωi)… P(xn| ωi)后验概率:P(ωi|x) = P(ωi) P(x1| ωi) P(x2| ωi)… P(xn| ωi)类别清晰的直接分类算,如果是数据连续的,假设属性服从正态分布,算出每个类的均值方差,最后得到类条件概率分布。
(完整word版)模式识别题目及答案(word文档良心出品)

一、(15分)设有两类正态分布的样本集,第一类均值为T1μ=(2,0),方差11⎡⎤∑=⎢⎥⎣⎦11/21/2,第二类均值为T2μ=(2,2),方差21⎡⎤∑=⎢⎥⎣⎦1-1/2-1/2,先验概率12()()p p ωω=,试求基于最小错误率的贝叶斯决策分界面。
解 根据后验概率公式()()()()i i i p x p p x p x ωωω=, (2’)及正态密度函数11/21()exp[()()/2]2T i i i i nip x x x ωμμπ-=--∑-∑ ,1,2i =。
(2’) 基于最小错误率的分界面为1122()()()()p x p p x p ωωωω=, (2’) 两边去对数,并代入密度函数,得1111112222()()/2ln ()()/2ln T T x x x x μμμμ----∑--∑=--∑--∑ (1) (2’)由已知条件可得12∑=∑,114/3-⎡⎤∑=⎢⎥⎣⎦4/3-2/3-2/3,214/3-⎡⎤∑=⎢⎥⎣⎦4/32/32/3,(2’)设12(,)Tx x x =,把已知条件代入式(1),经整理得1221440x x x x --+=, (5’)二、(15分)设两类样本的类内离散矩阵分别为11S ⎡⎤=⎢⎥⎣⎦11/21/2, 21S ⎡⎤=⎢⎥⎣⎦1-1/2-1/2,各类样本均值分别为T 1μ=(1,0),T2μ=(3,2),试用fisher 准则求其决策面方程,并判断样本Tx =(2,2)的类别。
解:122S S S ⎡⎤=+=⎢⎥⎣⎦200 (2’) 投影方向为*112-2-1()211/2w S μμ-⎡⎤⎡⎤⎡⎤=-==⎢⎥⎢⎥⎢⎥--⎣⎦⎣⎦⎣⎦1/200 (6’)阈值为[]*0122()/2-1-131T y w μμ⎡⎤=+==-⎢⎥⎣⎦(4’)给定样本的投影为[]*0-12241T y w x y ⎡⎤===-<⎢⎥-⎣⎦, 属于第二类 (3’)三、 (15分)给定如下的训练样例实例 x0 x1 x2 t(真实输出) 1 1 1 1 1 2 1 2 0 1 3 1 0 1 -1 4 1 1 2 -1用感知器训练法则求感知器的权值,设初始化权值为0120w w w ===;1 第1次迭代(4’)2 第2次迭代(2’)3 第3和4次迭代四、 (15分)i. 推导正态分布下的最大似然估计;ii. 根据上步的结论,假设给出如下正态分布下的样本{}1,1.1,1.01,0.9,0.99,估计该部分的均值和方差两个参数。
模式识别第3章部分习题解答

Problem 1
• a When θ = 1 p(x|θ) = Plot as follows:
1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 2 4 6 8 10 exp(-x)
e−x , x ≥ 0 0 others
When x = 2 we get: p(x|θ) = Plot as follows:
0.2 0.18 0.16 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 0 0.5 1 1.5 2
θe−2θ , x ≥ 0 0 others
x*exp(-2*x)
2.5
3
3.5
4
4.5
5
• b
x1 , · · · , xn p(x|θ), and xi are independently. Then we define the log-likelihood as follows:
Which is Eqs.46.
P (X |θ) =
i=1
xi θi (1 − θi )( 1 − xi )
hence,
n d
P (X 1 , ..., X n |θ) =
k=1 i=1
θi i (1 − θi )(1 − xk i)
xk
And the likelihood function:
n d k xk i ln θi + (1 − xi ) ln(1 − xi ) k=1 i=1
n
n
xi = 0
i=1
1 n
n i=1
xi
n→∞
xi −(x + 1)e−x |∞ 0 = 1
Problem 2
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
题1:在一个10类的模式识别问题中,有3类单独满足多类情况1,其余的类别满足多类情况2。
问该模式识别问题所需判别函数的最少数目是多少?答:将10类问题可看作4类满足多类情况1的问题,可将3类单独满足多类情况1的类找出来,剩下的7类全部划到4类中剩下的一个子类中。
再在此子类中,运用多类情况2的判别法则进行分类,此时需要7*(7-1)/2=21个判别函数。
故共需要4+21=25个判别函数。
题2:一个三类问题,其判别函数如下:d1(x)=-x1, d2(x)=x1+x2-1, d3(x)=x1-x2-11.设这些函数是在多类情况1条件下确定的,绘出其判别界面和每一个模式类别的区域。
2.设为多类情况2,并使:d12(x)= d1(x), d13(x)= d2(x), d23(x)= d3(x)。
绘出其判别界面和多类情况2的区域。
3.设d1(x), d2(x)和d3(x)是在多类情况3的条件下确定的,绘出其判别界面和每类的区域。
答:三种情况分别如下图所示:1.2.3.题3:两类模式,每类包括5个3维不同的模式,且良好分布。
如果它们是线性可分的,问权向量至少需要几个系数分量?假如要建立二次的多项式判别函数,又至少需要几个系数分量?(设模式的良好分布不因模式变化而改变。
)答:(1)若是线性可分的,则权向量至少需要14N n =+=个系数分量; (2)若要建立二次的多项式判别函数,则至少需要5!102!3!N ==个系数分量。
题4:用感知器算法求下列模式分类的解向量w : ω1: {(0 0 0)T, (1 0 0)T, (1 0 1)T, (1 1 0)T} ω2: {(0 0 1)T, (0 1 1)T, (0 1 0)T, (1 1 1)T}解:将属于2w 的训练样本乘以(1)-,并写成增广向量的形式x1=[0 0 0 1]',x2=[1 0 0 1]',x3=[1 0 1 1]',x4=[1 1 0 1]';x5=[0 0 -1 -1]',x6=[0 -1 -1 -1]',x7=[0 -1 0 -1]',x8=[-1 -1 -1 -1]';迭代选取1C =,(1)(0,0,0,0)w '=,则迭代过程中权向量w 变化如下:(2)(0 0 0 1)w '=;(3)(0 0 -1 0)w '=;(4)(0 -1 -1 -1)w '=;(5)(0 -1 -1 0)w '=;(6)(1 -1 -1 1)w '=;(7)(1 -1 -2 0)w '=;(8)(1 -1 -2 1)w '=;(9)(2 -1 -1 2)w '=; (10)(2 -1 -2 1)w '=;(11)(2 -2 -2 0)w '=;(12)(2 -2 -2 1)w '=;收敛所以最终得到解向量(2 -2 -2 1)w '=,相应的判别函数为123()2221d x x x x =--+。
题5:用多类感知器算法求下列模式的判别函数: ω1: (-1 -1)T ,ω2: (0 0)T ,ω3: (1 1)T解:采用一般化的感知器算法,将模式样本写成增广形式,即1231011,0,1111x x x -⎛⎫⎛⎫⎛⎫ ⎪ ⎪ ⎪=-== ⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎝⎭⎝⎭⎝⎭取初始值123000w w w ⎛⎫⎪=== ⎪ ⎪⎝⎭,取1C =,则有第一次迭代:以1x 为训练样本,123(1)(1)(1)0d d d ===,故123111(2)1,(2)1,(2)1111w w w -⎛⎫⎛⎫⎛⎫ ⎪ ⎪ ⎪=-== ⎪ ⎪ ⎪ ⎪ ⎪ ⎪--⎝⎭⎝⎭⎝⎭第二次迭代:以2x 为训练样本,123(2)1,(2)1,(2)1d d d ==-=-,故123111(3)1,(3)1,(3)1002w w w -⎛⎫⎛⎫⎛⎫ ⎪ ⎪ ⎪=-== ⎪ ⎪ ⎪ ⎪ ⎪ ⎪-⎝⎭⎝⎭⎝⎭第三次迭代:以3x 为训练样本,123(3)2,(3)2,(3)0d d d =-==,故123102(4)1,(4)0,(4)2011w w w -⎛⎫⎛⎫⎛⎫ ⎪ ⎪ ⎪=-== ⎪ ⎪ ⎪ ⎪ ⎪ ⎪--⎝⎭⎝⎭⎝⎭第四次迭代:以1x 为训练样本,123(4)2,(4)1,(4)5d d d ==-=-,故112233(5)(4),(5)(4),(5)(4)w w w w w w ===第五次迭代:以2x 为训练样本,123(5)0,(5)1,(5)1d d d ==-=-,故123102(6)1,(6)0,(6)2102w w w -⎛⎫⎛⎫⎛⎫ ⎪ ⎪ ⎪=-== ⎪ ⎪ ⎪ ⎪ ⎪ ⎪--⎝⎭⎝⎭⎝⎭第六次迭代:以3x 为训练样本,123(6)3,(6)0,(6)2d d d =-==,故112233(7)(6),(7)(6),(7)(6)w w w w w w ===第七次迭代:以1x 为训练样本,123(7)1,(7)0,(7)6d d d ===-,故112233(8)(7),(8)(7),(8)(7)w w w w w w ===第八次迭代:以2x 为训练样本,123(8)1,(8)0,(8)2d d d =-==-,故112233(9)(8),(9)(8),(9)(8)w w w w w w ===由于第六、七、八次迭代中对312,,x x x 均以正确分类,故权向量的解为:1231021,0,2102w w w -⎛⎫⎛⎫⎛⎫ ⎪ ⎪ ⎪=-== ⎪ ⎪ ⎪ ⎪ ⎪ ⎪--⎝⎭⎝⎭⎝⎭,可得三个判别函数为:112231210222d x x d d x x =---==+-题6: 采用梯度法和准则函数2(,,)21()8t tw x b J w x b w x b x⎡⎤=---⎣⎦,式中实数b 〉0,试导出两类模式的分类算法。
解:)]sgn(*[*|]|)[(||||412b x w x x b x w b x w x w J tt t -----=∂∂ 其中:⎩⎨⎧≤-->-=-0,10,1)sgn(b x w b x w b x w tt t得迭代式:2(1)()[(())|()|]*[*sgn(())]4||||t t tC w k w k w k x b w k x b x x w k x b x +=+----- 200(1)()()t t t w x b w k w k C b w x x w x b x ⎧->⎪+=+-⎨-≤⎪⎩题7:用LMSE 算法求下列模式的解向量: ω1: {(0 0 0)T , (1 0 0)T , (1 0 1)T , (1 1 0)T }ω2: {(0 0 1)T , (0 1 1)T , (0 1 0)T , (1 1 1)T }解:写出模式的增广矩阵X :00011001101111010011011101011111X ⎛⎫⎪ ⎪ ⎪⎪⎪= ⎪--⎪--- ⎪ ⎪-- ⎪ ⎪----⎝⎭#11000110010111000110110111000100010111110100010111()()001011010011001011011111111101111111111101011111t tX X X X --⎛⎫⎪ ⎪⎪--⎛⎫⎛⎫⎪ ⎪ ⎪------ ⎪⎪ ⎪== ⎪ ⎪ ⎪--------⎪ ⎪ ⎪----------- ⎪⎝⎭⎝⎭⎪-- ⎪ ⎪----⎝⎭=121121212(2)11222224-⎛⎫ ⎪ ⎪ ⎪ ⎪⎝⎭01110001000101110010110111111111-⎛⎫⎪--- ⎪⎪---⎪----⎝⎭200102011002141112-⎛⎫ ⎪- ⎪=⎪- ⎪---⎝⎭01111000101110010110111111111-⎛⎫⎪--- ⎪⎪--- ⎪----⎝⎭1111111111111111111111111421001011--⎛⎫ ⎪------ ⎪= ⎪------ ⎪--⎝⎭取(1)(11111111)t=b 和1C = 第一次迭代:#(1)(1)(1110.5)tX ==--w b(1)(1)(1)(0.50.50.50.50.50.50.50.5)t X =-=------e w b#(2)(1)(1)(1.5 1.5 1.50.75)t CX =+=--w w e (2)(1)[(1)(1)](12111211)t C =++=b b e e第二次迭代:(2)(2)(2)(0.250.250.250.250.250.250.250.25)tX =-=------e w b#(3)(2)(2)(1.75 1.75 1.750.875)t CX =+=--w w e (3)(2)[(2)(2)](1 2.5111 2.511)t C =++=b b e e第三次迭代:(3)(3)(3)(0.1250.1250.1250.1250.1250.1250.1250.125)tX =-=------e w b#(4)(3)(3)(1.875 1.875 1.8750.9375)t CX =+=--w w e (4)(3)[(3)(3)](1 2.75111 2.7511)t C =++=b b e e第四次迭代:(4)(4)(4)(0.06250.06250.06250.06250.06250.06250.06250.0625)tX =-=------e w b#(5)(4)(4)(1.9375 1.9375 1.93750.9688)t CX =+=--w w e (5)(4)[(4)(4)](1 2.875111 2.87511)t C =++=b b e e第五次迭代:(5)(5)(5)(0.03130.03130.03130.03130.03130.03130.03130.0313)tX =-=------e w b#(6)(5)(5)(1.9688 1.9688 1.96880.9844)t CX =+=--w w e (6)(5)[(5)(5)](1 2.9375111 2.937511)t C =++=b b e e第六次迭代:(6)(6)(6)(0.01560.01560.01560.01560.01560.01560.01560.0156)tX =-=------e w b#(7)(6)(6)(1.9844 1.9844 1.98440.9922)t CX =+=--w w e (7)(6)[(6)(6)](1 2.9688111 2.968811)t C =++=b b e e第七次迭代:(7)(7)(7)(0.00780.00780.00780.00780.00780.00780.00780.0078)tX =-=------e w b#(8)(7)(7)(1.9922 1.9922 1.99220.9961)t CX =+=--w w e (8)(7)[(7)(7)](1 2.9844111 2.984411)t C =++=b b e e第八次迭代:(8)(8)(8)(0.00390.00390.00390.00390.00390.00390.00390.0039)tX =-=------e w b#(9)(8)(8)(1.9961 1.9961 1.99610.9980)t CX =+=--w w e (9)(8)[(8)(8)](1 2.9922111 2.992211)t C =++=b b e e第九次迭代:(9)(9)(9)(0.00200.00200.00200.00200.00200.00200.00200.0020)tX =-=------e w b#(10)(9)(9)(1.9980 1.9980 1.99800.9990)t CX =+=--w w e (10)(9)[(9)(9)](1 2.9961111 2.996111)t C =++=b b e e第十次迭代:3(10)(10)(10) 1.010(0.97660.97660.97660.980.980.980.980.98)tX -=-=创------e w b#(11)(10)(10)(1.9990 1.9990 1.99900.9995)t CX =+=--w w e (11)(10)[(10)(10)](1 2.9980111 2.998011)t C =++=b b e e由于31.010e -<?,可以认为此时权系数调整完毕,最终的权系数为:(2221)t ?-w相应的判别函数为:1231()222d x x x =--+x题8:用二次埃尔米特多项式的势函数算法求解以下模式的分类问题ω1: {(0 1)T , (0 -1)T } ω2: {(1 0)T , (-1 0)T }111201022212011222331201222441211021551211121226612112212()(,)()()1()(,)()()2()(,)()()42()(,)()()2()(,)()()4()(,)()()2(4x x x H x H x x x x H x H x x x x x H x H x x x x x H x H x x x x x H x H x x x x x x H x H x x x ϕϕϕϕϕϕϕϕϕϕϕϕ=========-=========2771221021288122112212299122122122)()(,)()()42()(,)()()2(42)()(,)()()(42)(42)x x x H x H x x x x x H x H x x x x x x H x H x x x ϕϕϕϕϕϕ-===-===-===--所以,势函数91(,)()()k iiki K x x x x ϕϕ==∑第一步:取1101X w ⎛⎫=∈ ⎪⎝⎭,故2222212211212()152040243264K X x x x x x x x =-+++--第二步:取2101X w ⎛⎫=∈⎪-⎝⎭,12()50K X =>,故21()()K X K X = 第三步:取3210X w ⎛⎫=∈ ⎪⎝⎭,23()90K X =>,故223232211()()(,)20162016K X K X K X X x x x x =-=+--第四步:取4210X w -⎛⎫=∈ ⎪⎝⎭,34()40K X =>,故222224342121212()()(,)152********K X K X K X X x x x x x x x =-=+---+第五步:取5101X w ⎛⎫=∈ ⎪⎝⎭,45()270K X =>,故54()()K X K X =第六步:取6101X w ⎛⎫=∈ ⎪-⎝⎭,56()130K X =-<,故2265612()()(,)3232K X K X K X X x x =+=-+ 第七步:取7210X w ⎛⎫=∈ ⎪⎝⎭,67()320K X =-<,故76()()K X K X =第八步:取8210X w -⎛⎫=∈⎪⎝⎭,78()320K X =-<,故 87()()K X K X =第九步:取9101X w ⎛⎫=∈ ⎪⎝⎭,89()320K X =>,故98()()K X K X =第十步:取10101X w ⎛⎫=∈ ⎪-⎝⎭,910()320K X =>,故109()()K X K X =从第七步到第十步的迭代过程中,全部模式都已正确分类,故算法已经收敛于判别函数:221012()()3232d X K X x x ==-+ 题9:用下列势函数2||||(,)k X X k K X X eα--=求解以下模式的分类问题ω1: {(0 1)T, (0 -1)T}ω2: {(1 0)T, (-1 0)T}选取1α=,在二维情况下,势函数为1222212(,)exp{||||}exp{[()()]}k k k k K X X X X x x x x =--=--+-以下为势函数迭代算法:第一步:取1101X w ⎛⎫=∈ ⎪⎝⎭,故22112()exp{(1)}K X x x =---第二步:取2101X w ⎛⎫=∈⎪-⎝⎭,12()exp{4}0K X =->,故21()()K X K X = 第三步:取3210X w ⎛⎫=∈ ⎪⎝⎭,23()exp{1}0K X =->,故22223231212()()(,)exp{(1)}exp{(1)}K X K X K X X x x x x =-=-------第四步:取4210X w -⎛⎫=∈ ⎪⎝⎭,34()exp{2}exp{4}0K X =--->,故222222434121212()()(,)exp{(1)}exp{(1)}exp{(1)}K X K X K X X x x x x x x =-=---------+-第五步:取5101X w ⎛⎫=∈ ⎪⎝⎭,45()1exp{2}exp{2}0K X =---->,故54()()K X K X =第六步:取6101X w ⎛⎫=∈⎪-⎝⎭,56()exp{4}exp{2}exp{2}0K X =-----<,故 2222656121222221212()()(,)exp{(1)}exp{(1)} exp{(1)}exp{(1)}K X K X K X X x x x x x x x x =+=--++---------+-第七步:取7210X w ⎛⎫=∈ ⎪⎝⎭,67()exp{2}exp{2}1exp{4}0K X =-+----<,故76()()K X K X =第八步:取8210X w -⎛⎫=∈⎪⎝⎭,78()exp{2}exp{2}exp{4}10K X =-+----<,故 87()()K X K X =第九步:取9101X w ⎛⎫=∈ ⎪⎝⎭,89()exp{4}1exp{2}exp{2}0K X =-+---->,故98()()K X K X =第十步:取10101X w ⎛⎫=∈⎪-⎝⎭,910()1exp{4}exp{2}exp{2}0K X =+----->,故 109()()K X K X =从第七步到第十步的迭代过程中,全部模式都已正确分类,故算法已经收敛于判别函数:222210121222221212()()exp{(1)}exp{(1)} exp{(1)}exp{(1)}d X K X x x x x x x x x ==--++---------+-。