模式识别课程作业proj03-01

合集下载

北邮模式识别课堂作业答案(参考)

北邮模式识别课堂作业答案(参考)

第一次课堂作业⏹ 1.人在识别事物时是否可以避免错识?⏹ 2.如果错识不可避免,那么你是否怀疑你所看到的、听到的、嗅到的到底是真是的,还是虚假的?⏹ 3.如果不是,那么你依靠的是什么呢?用学术语言该如何表示。

⏹ 4.我们是以统计学为基础分析模式识别问题,采用的是错误概率评价分类器性能。

如果不采用统计学,你是否能想到还有什么合理地分类器性能评价指标来替代错误率?1.知觉的特性为选择性、整体性、理解性、恒常性。

错觉是错误的知觉,是在特定条件下产生的对客观事物歪曲的知觉。

认知是一个过程,需要大脑的参与.人的认知并不神秘,也符合一定的规律,也会产生错误2.不是3.辨别事物的最基本方法是计算. 从不同事物所具有的不同属性为出发点认识事物. 一种是对事物的属性进行度量,属于定量的表示方法(向量表示法)。

另一种则是对事务所包含的成分进行分析,称为定性的描述(结构性描述方法)。

4.风险第二次课堂作业⏹作为学生,你需要判断今天的课是否点名。

结合该问题(或者其它你熟悉的识别问题,如”天气预报”),说明:⏹先验概率、后验概率和类条件概率?⏹按照最小错误率如何决策?⏹按照最小风险如何决策?ωi为老师点名的事件,x为判断老师点名的概率1.先验概率: 指根据以往经验和分析得到的该老师点名的概率,即为先验概率P(ωi )后验概率: 在收到某个消息之后,接收端所了解到的该消息发送的概率称为后验概率。

在上过课之后,了解到的老师点名的概率为后验概率P(ωi|x)类条件概率:在老师点名这个事件发生的条件下,学生判断老师点名的概率p(x| ωi )2.如果P(ω1|X)>P(ω2|X),则X归为ω1类别如果P(ω1|X)≤P(ω2|X),则X归为ω2类别3.1)计算出后验概率已知P(ωi)和P(X|ωi),i=1,…,c,获得观测到的特征向量X根据贝叶斯公式计算j=1,…,x2)计算条件风险已知: 后验概率和决策表计算出每个决策的条件风险3) 找出使条件风险最小的决策αk,则αk就是最小风险贝叶斯决策。

模式识别作业

模式识别作业

(1)先用C-均值聚类算法程序,并用下列数据进行聚类分析。

在确认编程正确后,采用蔡云龙书的附录B中表1的Iris数据进行聚类。

然后使用近邻法的快速算法找出待分样本X (设X样本的4个分量x1=x2=x3=x4=6;子集数l=3)的最近邻节点和3-近邻节点及X与它们之间的距离。

并建议适当对书中所述算法进行改进。

并分别画出流程图、写出算法及程序。

x1=(0,0) x2=(1,0) x3=(0,1) x4=(1,1) x5=(2,1) x6=(1,2) x7=(2,2) x8=(3,2) x9=(6,6) x10=(7,6) x11=(8,6) x12=(6,7) x13=(7,7) x14=(8,7) x15=(9,7) x16=(7,8) x17=(8,8) x18=(9,8) x19=(8,9) x20=(9,9)
(2)写一篇论文。

内容可以包含下面四个方面中的一个:
①新技术(如数据挖掘等)在模式识别中的应用;
②模式识别最新的研究方向;
③一个相关系统的分析;
④一个算法的优化;
(3)书142页,描述近邻法的快速算法,写个报告。

模式识别作业

模式识别作业

模式识别作业图像处理与模式识别作业二题目一:计算特征矢量之间的距离:任意构造10个人在程序设计、离散数学、数据结构、计算机组成原理4门课的成绩表。

计算两两之间的欧式距离、绝对值距离,设计合适的阈值,能否进行分类?答:题目中每个人共有四门课,也就是每个人有4个特征,每门课的成绩也就是这4个特征的量化。

例如某人的成绩就可以表示为(95,68,78,85)这样的一个四维向量。

在这样一个四维空间里,每个个体的相似程度也就可以用欧式距离或者绝对值距离表示。

根据这个相似度,我们就可以将相似度近的分为几类,使其类间距离和最大,类内距离和最小。

或者规定产生几类,具体进行分类。

可用的分类方法有很多,例如最大最小距离法、谱系聚类法、C-均值。

题目二:关于类的定义:如何定义类内各个样本的平均距离?如何定义类之间的距离?答:(1)根据不同的要求类内各个样本的平均距离可以有不同的定义方式。

一般而言,采用先求取类的类心,通过求各个样本与类心距离的平均值.但有时对于样本的聚簇要求格外看中,可以求样本两两距离的和的平均值。

(2)类间距离的方法有很多,例如欧式距离、马氏距离、明氏距离、汉明距离、角度相似性函数。

其中欧式距离较为常用。

设x=(x1, x2, …, xn)T, y=(y1, y2, …, yn)T 欧式距离(Euclidean)d(x, y) = ||x-y|| = [?i=1 n(xi-yi)2]1/2 d(x, y) = ?i=1 n|xi-yi|d(x, y) = maxi |xi-yi| d(x, y) = [?i=1 n(xi-yi)m]1/mm=2,1,?时分别是欧式距离、绝对值距离和切氏距离。

设n维矢量xi和xj是矢量集{x1, x2, …, xn}中的两个矢量,其马氏距离d d2(xi, xj) = (xi-xj)T V-1 (xi-xj)n1TV?(xi?x)(xi?x)?n11i?1x?m??xi绝对值距离(Manhattan距离)切氏距离(Chebyahev)闵科夫斯基距离(Minkowski)马氏距离(Mahalanohis)是:mi?1题目三:你如何理解准则函数?图像处理与模式识别作业二答:准则函数-用具体函数评价系统所采取策略优劣的准则时,称为准则函数。

模式识别4次作业汇总

模式识别4次作业汇总

北京工商大学模式识别作业汇总(2014年秋季学期)课程名称:模式识别专业班级:计研141班学生姓名:董文菲刘倩指导教师:于重重成绩:2015年1月20日第一次课的作业1.在Matlab 环境下,利用第一题中给了matlab程序,尝试声音识别过程,并把程序流程图画出。

解:程序实现了识别“kiss”与“love”两个声音的界面图。

程序流程图如下:2.运行网址http://www.wcl.ece.upatras.gr/en/ai/resources/demo-emotion -recognition-from-speech上的java applet ,了解声音识别的过程。

解:智能对话系统的测试点如下图所示,该智能对话系统可以通过语音交互获取信息,控制娱乐设备等智能应用。

情感识别的构成如下图:情感识别依赖于先进的音频参数化技术,利用高斯混合模型训练情绪识别模型。

目前负面情绪的识别得到了很好的结果。

3. 选择鸢尾花数据集(iris,网上下载),并尽可能多地使用《数据挖掘导论第三章》介绍的不同的可视化技术完成数据预处理(可参看第三章资料中的辅助ppt),形成报告。

文献注释和该书网站提供了可视化软件的线索。

解:(1)分类选择朴素贝叶斯分类器算法,训练选项选择交叉验证,即把数据集分成若干份,1份作为验证集,其余部分作为训练集合。

这样的方法保证了数据集的所有元素都被验证过。

这里把数据集分为10份来进行训练。

分类器运行的信息,分类器训练的结果,分类器验证验证的结果、准确性计算等信息如下:Visualize信息图,3种类别用不同颜色表示出来。

可以从图中看出哪些属性的组合具有较好的区分度。

(2)离散化(discretize):类weka.filters.supervised.attribute.Discretize和weka.filters.unsupervised.attribute.Discretize。

分别进行监督和无监督的数值属性的离散化,用来离散数据集中的一些数值属性到分类属性。

模式识别与机器学习第三章作业

模式识别与机器学习第三章作业

模式识别与机器学习第三章作业在一个10类的模式识别问题中,有3类单独满足多类情况1,其余的类别满足多类情况2。

问该模式识别问题所需判别函数的最少数目是多少?解:一个三类问题,其判别函数如下:d1(x)=-x1, d2(x)=x1+x2-1, d3(x)=x1-x2-1(1)设这些函数是在多类情况1条件下确定的,绘出其判别界面和每一个模式类别的区域。

(2)设为多类情况2,并使:d12(x)= d1(x), d13(x)= d2(x), d23(x)= d3(x)。

绘出其判别界面和多类情况2的区域。

(3)设d1(x), d2(x)和d3(x)是在多类情况3的条件下确定的,绘出其判别界面和每类的区域。

解:两类模式,每类包括5个3维不同的模式,且良好分布。

如果它们是线性可分的,问权向量至少需要几个系数分量?假如要建立二次的多项式判别函数,又至少需要几个系数分量?(设模式的良好分布不因模式变化而改变。

)用感知器算法求下列模式分类的解向量w: ω1: {(0 0 0)T, (1 0 0)T, (1 0 1)T, (1 1 0)T}ω2: {(0 0 1)T, (0 1 1)T, (0 1 0)T, (1 1 1)T}编写求解上述问题的感知器算法程序。

感知器算法程序源代码:X1=[0 0 0 1;1 0 0 1;1 0 1 1;1 1 0 1]; X2=[0 0 1 1;0 1 1 1;0 1 0 1;1 1 1 1]; X2=X2*(-1);A=[X1;X2];w=[0 0 0 0]; %设置初始权向量flag=0; %设置标志while flag==0m=[0 0 0 0 0 0 0 0];for i=1:8y=w*A(i,:)';if y<=0w=A(i,:)+w;m(i)=1;end;end;w %输出迭代过程中权向量if m==[0 0 0 0 0 0 0 0]flag=1;end;end;运行结果为:用多类感知器算法求下列模式的判别函数:ω1: (-1 -1)Tω2: (0 0)Tω3: (1 1)T采用梯度法和准则函数式中实数b>0,试导出两类模式的分类算法。

模式识别(三)课后上机作业参考解答

模式识别(三)课后上机作业参考解答

“模式识别(三).PDF”课件课后上机选做作业参考解答(武大计算机学院袁志勇, Email: yuanzywhu@) 上机题目:两类问题,已知四个训练样本ω1={(0,0)T,(0,1)T};ω2={(1,0)T,(1,1)T}使用感知器固定增量法求判别函数。

设w1=(1,1,1)Tρk=1试编写程序上机运行(使用MATLAB、 C/C++、C#、JA V A、DELPHI等语言中任意一种编写均可),写出判别函数,并给出程序运行的相关运行图表。

这里采用MATLAB编写感知器固定增量算法程序。

一、感知器固定增量法的MATLAB函数编写感知器固定增量法的具体内容请参考“模式识别(三).PDF”课件中的算法描述,可将该算法编写一个可以调用的自定义MATLAB函数:% perceptronclassify.m%% Caculate the optimal W by Perceptron%% W1-3x1 vector, initial weight vector% Pk-scalar, learning rate% W -3x1 vector, optimal weight vector% iters - scalar, the number of iterations%% Created: May 17, 2010function [W iters] = perceptronclassify(W1,Pk)x1 = [0 0 1]';x2 = [0 1 1]';x3 = [1 0 1]';x4 = [1 1 1]';% the training sampleWk = W1;FLAG = 0;% iteration flagesiters = 0;if Wk'*x1 <= 0Wk =Wk + x1;FLAG = 1;endif Wk'*x2 <= 0Wk =Wk + x2;FLAG = 1;endif Wk'*x3 >= 0Wk=Wk-x3;FLAG = 1; endif Wk'*x4 >= 0Wk =Wk -x4; FLAG = 1; enditers = iters + 1; while (FLAG) FLAG = 0; if Wk'*x1 <= 0Wk = Wk + x1; FLAG = 1; endif Wk'*x2 <= 0Wk = Wk + x2; FLAG = 1; endif Wk'*x3 >= 0 Wk = Wk - x3; FLAG = 1; endif Wk'*x4 >= 0 Wk = Wk - x4; FLAG = 1; enditers = iters + 1; endW = Wk;二、程序运行程序输入:初始权向量1W , 固定增量大小k ρ 程序输出:权向量最优解W , 程序迭代次数iters 在MATLAB 7.X 命令行窗口中的运行情况: 1、初始化1[111]T W = 初始化W 1窗口界面截图如下:2、初始化1kρ=初始化Pk 窗口界面截图如下:3、在MATLAB 窗口中调用自定义的perceptronclassify 函数由于perceptronclassify.m 下自定义的函数文件,在调用该函数前需要事先[Set path…]设置该函数文件所在的路径,然后才能在命令行窗口中调用。

模式识别大作业1

模式识别大作业1

模式识别大作业--fisher线性判别和近邻法学号:021151**姓名:**任课教师:张**I. Fisher线性判别A. fisher线性判别简述在应用统计方法解决模式识别的问题时,一再碰到的问题之一是维数问题.在低维空间里解析上或计算上行得通的方法,在高维里往往行不通.因此,降低维数就成为处理实际问题的关键.我们考虑把维空间的样本投影到一条直线上,形成一维空间,即把维数压缩到一维.这样,必须找一个最好的,易于区分的投影线.这个投影变换就是我们求解的解向量.B.fisher线性判别的降维和判别1.线性投影与Fisher准则函数各类在维特征空间里的样本均值向量:,(1)通过变换映射到一维特征空间后,各类的平均值为:,(2)映射后,各类样本“类内离散度”定义为:,(3)显然,我们希望在映射之后,两类的平均值之间的距离越大越好,而各类的样本类内离散度越小越好。

因此,定义Fisher准则函数:(4)使最大的解就是最佳解向量,也就是Fisher的线性判别式。

2.求解从的表达式可知,它并非的显函数,必须进一步变换。

已知:,, 依次代入上两式,有:,(5)所以:(6)其中:(7)是原维特征空间里的样本类内离散度矩阵,表示两类均值向量之间的离散度大小,因此,越大越容易区分。

将(4.5-6)和(4.5-2)代入(4.5-4)式中:(8)其中:,(9)因此:(10)显然:(11)称为原维特征空间里,样本“类内离散度”矩阵。

是样本“类内总离散度”矩阵。

为了便于分类,显然越小越好,也就是越小越好。

将上述的所有推导结果代入表达式:可以得到:其中,是一个比例因子,不影响的方向,可以删除,从而得到最后解:(12)就使取得最大值,可使样本由维空间向一维空间映射,其投影方向最好。

是一个Fisher线性判断式.这个向量指出了相对于Fisher准则函数最好的投影线方向。

C.算法流程图左图为算法的流程设计图。

II.近邻法A. 近邻法线简述K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。

模式识别大作业

模式识别大作业

模式识别大作业(总21页)--本页仅作为文档封面,使用时请直接删除即可----内页可以根据需求调整合适字体及大小--作业1 用身高和/或体重数据进行性别分类(一)基本要求:用和的数据作为训练样本集,建立Bayes分类器,用测试样本数据对该分类器进行测试。

调整特征、分类器等方面的一些因素,考察它们对分类器性能的影响,从而加深对所学内容的理解和感性认识。

具体做法:1.应用单个特征进行实验:以(a)身高或者(b)体重数据作为特征,在正态分布假设下利用最大似然法或者贝叶斯估计法估计分布密度参数,建立最小错误率Bayes分类器,写出得到的决策规则,将该分类器应用到测试样本,考察测试错误情况。

在分类器设计时可以考察采用不同先验概率(如对, 对, 对等)进行实验,考察对决策规则和错误率的影响。

图1-先验概率:分布曲线图2-先验概率:分布曲线图3--先验概率:分布曲线图4不同先验概率的曲线有图可以看出先验概率对决策规则和错误率有很大的影响。

程序:和2.应用两个特征进行实验:同时采用身高和体重数据作为特征,分别假设二者相关或不相关(在正态分布下一定独立),在正态分布假设下估计概率密度,建立最小错误率Bayes分类器,写出得到的决策规则,将该分类器应用到训练/测试样本,考察训练/测试错误情况。

比较相关假设和不相关假设下结果的差异。

在分类器设计时可以考察采用不同先验概率(如 vs. , vs. , vs. 等)进行实验,考察对决策和错误率的影响。

训练样本female来测试图1先验概率 vs. 图2先验概率 vs.图3先验概率 vs. 图4不同先验概率对测试样本1进行试验得图对测试样本2进行试验有图可以看出先验概率对决策规则和错误率有很大的影响。

程序和3.自行给出一个决策表,采用最小风险的Bayes决策重复上面的某个或全部实验。

W1W2W10W20close all;clear all;X=120::200; %设置采样范围及精度pw1=;pw2=; %设置先验概率sample1=textread('') %读入样本samplew1=zeros(1,length(sample1(:,1)));u1=mean(sample1(:,1));m1=std(sample1(:,1));y1=normpdf(X,u1,m1); %类条件概率分布figure(1);subplot(2,1,1);plot(X,y1);title('F身高类条件概率分布曲线');sample2=textread('') %读入样本samplew2=zeros(1,length(sample2(:,1)));u2=mean(sample2(:,1));m2=std(sample2(:,1));y2=normpdf(X,u2,m2); %类条件概率分布subplot(2,1,2);plot(X,y2);title('M身高类条件概率分布曲线');P1=pw1*y1./(pw1*y1+pw2*y2);P2=pw2*y2./(pw1*y1+pw2*y2);figure(2);subplot(2,1,1);plot(X,P1);title('F身高后验概率分布曲线');subplot(2,1,2);plot(X,P2);title('M身高后验概率分布曲线');P11=pw1*y1;P22=pw2*y2;figure(3);subplot(3,1,1);plot(X,P11);subplot(3,1,2);plot(X,P22);subplot(3,1,3);plot(X,P11,X,P22);sample=textread('all ') %读入样本[result]=bayes(sample1(:,1),sample2(:,1),pw1,pw2);%bayes分类器function [result] =bayes(sample1(:,1),sample2(:,1),pw1,pw2); error1=0;error2=0;u1=mean(sample1(:,1));m1=std(sample1(:,1));y1=normpdf(X,u1,m1); %类条件概率分布u2=mean(sample2(:,1));m2=std(sample2(:,1));y2=normpdf(X,u2,m2); %类条件概率分布P1=pw1*y1./(pw1*y1+pw2*y2);P2=pw2*y2./(pw1*y1+pw2*y2);for i = 1:50if P1(i)>P2(i)result(i)=0;pe(i)=P2(i);elseresult(i)=1;pe(i)=P1(i);endendfor i=1:50if result(k)==0error1=error1+1;else result(k)=1error2=error2+1;endendratio = error1+error2/length(sample); %识别率,百分比形式sprintf('正确识别率为%.2f%%.',ratio)作业2 用身高/体重数据进行性别分类(二)基本要求:试验直接设计线性分类器的方法,与基于概率密度估计的贝叶斯分离器进行比较。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

模式识别理论与方法
课程作业实验报告
实验名称:Maximum-Likelihood Parameter Estimation 实验编号:Proj03-01 姓 名:
学 号:规定提交日期:2012年3月27日 实际提交日期:2012年3月27日
摘 要:
参数估计问题是统计学中的经典问题,其中最常用的一种方法是最大似然估计法,最大似然估计是把待估计的参数看作是确定性的量,只是其取值未知。

最佳估计就是使得产生已观测到的样本的概率为最大的那个值。

本实验研究的训练样本服从多元正态分布,比较了单变量和多维变量的最大似然估计情况,对样本的均值、方差、协方差做了最大似然估计。

实验结果对不同方式计算出的估计值做了比较分析,得出结论:对均值的最大似然估计
就是对全体样本取平均;协方差的最大似然估计则是N 个)'ˆx )(ˆx (u u
k k --矩阵的算术平均,对方差2
σ的最大似然估计是有偏估计。

一、 技术论述
(1)高斯情况:∑和u 均未知
实际应用中,多元正态分布更典型的情况是:均值u 和协方差矩阵∑都未知。

这样,参数向量θ就由这两个成分组成。

先考虑单变量的情况,其中参数向量θ的组成成分是:221,σθθ==u 。

这样,对于单个训练样本的对数似然函数为:
2
12
2
)(212ln 21)(ln θθπθ
θ--
-
=k k x x p (1)
对上式关于变量θ对导:
⎥⎥⎥⎥

⎤⎢⎢⎢⎢⎣⎡-+--=∇=∇2
2
2
12
12
2)(21
)(1
)(ln θθθθθθθθk k k x x x p l (2) 运用式l θ∇=0,我们得到对于全体样本的对数似然函数的极值条件
0)ˆ(ˆ1
n
112=-∑=k k x θθ
(3)
0ˆ)
(ˆ11
2
2
2
112
=-+
-∑
∑==n
k k n k x θθθ
(4)
其中1ˆθ,2ˆθ分别是对于1θ,2θ的最大似然估计。

把1ˆθ,2ˆθ用u
ˆ,2ˆσ代替,并进行简单的整理,我们得到下述的对于均值和方差的最大似然估计结果
∑==n
k k
x n
u
1
1
ˆ (5)
2
1
2
)ˆ(1
ˆ∑=-=
n
k k
u
x n
σ
(6)
当高斯函数为多元时,最大似然估计的过程也是非常类似的。

对于多元高斯分布的均值u 和协方差矩阵∑的最大似然估计结果为:
∑=1
1
ˆn
k
x n
u
(7)
t k n
k k
u x u
x
)ˆ()ˆ(n
1
ˆ1
--=∑
∑= (8) 二、 实验结果
(a )类w1中的3个特征向量,各含10个样本
w1_x1=[0.42 -0.2 1.3 0.39 -1.6 -0.029 -0.23 0.27 -1.9 0.87]'; w1_x2=[-0.087 -3.3 -0.32 0.71 -5.3 0.89 1.9 -0.3 0.76 -1.0]'; w1_x3=[0.58 -3.4 1.7 0.23 -0.15 -4.7 2.2 -0.87 -2.1 -2.6]'; 利用式子(5)、(6)对均值和方差进行最大似然估计,分别得到结果为: u1=-0.0709 s1=0.9062 u2=-0.6047 s2=4.2007
u3=-0.9110 s3=4.5419
将任意两个特征组合,处理二维数据的情形:
利用式子(7)、(8)对均值和协方差矩阵进行最大似然估计,分别得到结果为: u12 =-0.0709 -0.6047 E12 = 0.9062 0.5678 0.5678 4.2007
u13 = -0.0709 -0.9110 E13 =0.9062 0.3941 0.3941 4.5419
u23 =-0.6047 -0.9110 E23 =4.2007 0.7337 0.7337 4.5419
(b )将W1类中三个特征组合,处理三维数据情形
利用式子(7)、(8)对均值和协方差矩阵进行最大似然估计,分别得到结果为: u123 =-0.0709 -0.6047 -0.9110 E123 =0.9062 0.5678 0.3941 0.5678 4.2007 0.7337 0.3941 0.7337 4.5419
(c )假设W2类中三维高斯模型是可分离的,则各个特征之间是相互独立的,可以参照(a )中对单个特征的最大似然估计的方法,可以得到:
u_c =-0.1126 0.4299 0.0037 e_c =0.0539 0 0 0 0.0460 0
0 0 0.0073
(d )由于(c )中是选用的w2类中的数据,所以不便与前3种方式的结果进行比较。

对于w1类的数据,可以看出同一个特征的均值在不同的方式下,似然估计是相等的。

从(5)和(7)两个式子中,可以找到原因,表明:对均值的最大似然估计就是对全体样本取平均。

(e )与上同理,只对w1类数据的结果进行分析。

由结果可以看出,同一个特征的方差在不同的方式下,似然估计是相等的。

可以从(6)和(8)中找到原因。

当然,对方差的最大似然估计是有偏的估计,也就是说,对所有可能的大小为n 的样本集进行方差估计,其数学期望并不等于实际的方差。

因为:
ε2
2
1
21)(n
1σσ
≠-=⎥⎦

⎢⎣⎡-∑=n n x x
n
i i
附录:实验程序
function [u s]=sd_mle(x)
%单维样本的最大似然估计
len=length(x');
u=sum(x)/len;
s=sum((x-u).^2)/len;
end
function [u e]=md_mle(x)
%多维样本的最大似然估计
%x为多维样本
[m n]=size(x);
u=sum(x)/m;
temp=zeros(n,n);
for i=1:m
s=(x(i,:)-u)'*(x(i,:)-u);
temp=s+temp;
end
e=temp/m;
end
% proj03_01
clc,clear
w1_x1=[0.42 -0.2 1.3 0.39 -1.6 -0.029 -0.23 0.27 -1.9 0.87]';
w1_x2=[-0.087 -3.3 -0.32 0.71 -5.3 0.89 1.9 -0.3 0.76 -1.0]';
w1_x3=[0.58 -3.4 1.7 0.23 -0.15 -4.7 2.2 -0.87 -2.1 -2.6]';
w2_x1=[-0.4 -0.31 0.38 -0.15 -0.35 0.17 -0.011 -0.27 -0.065 -0.12]';
w2_x2=[0.58 0.27 0.055 0.53 0.47 0.69 0.55 0.61 0.49 0.054]';
w2_x3=[0.089 -0.04 -0.035 0.011 0.034 0.1 -0.18 0.12 0.0012 -0.063]'; %--------问题a---------
%类别w1中特征1的最大似然估计
[u1 s1]=sd_mle(w1_x1)
%类别w1中特征2的最大似然估计
[u2 s2]=sd_mle(w1_x2)
%类别w1中特征3的最大似然估计
[u3 s3]=sd_mle(w1_x3)
%类别w1中特征1、2的最大似然估计
x=[w1_x1,w1_x2];
[u12 e12]=md_mle(x)
%类别w1中特征1、3的最大似然估计
x=[w1_x1,w1_x3];
[u13 e13]=md_mle(x)
%类别w1中特征2、3的最大似然估计
x=[w1_x2,w1_x3];
[u23 e23]=md_mle(x)
%--------问题b---------
%类别w1中特征1、2、3的最大似然估计x=[w1_x1,w1_x2,w1_x3];
[u123 e123]=md_mle(x)
%--------问题c---------
%求w2类中单个特征的均值、方差
[u1 s1]=sd_mle(w2_x1);
[u2 s2]=sd_mle(w2_x2);
[u3 s3]=sd_mle(w2_x3);
u_c=[u1,u2,u3]
e_c=[s1 0 0;0 s2 0;0 0 s3]。

相关文档
最新文档