模式识别作业题(2)

合集下载

贝叶斯决策理论-模式识别课程作业

贝叶斯决策理论-模式识别课程作业

研究生课程作业贝叶斯决策理论课程名称模式识别姓名xx学号xxxxxxxxx专业软件工程任课教师xxxx提交时间2019.xxx课程论文提交时间:2019 年3月19 日需附上习题题目1. 试简述先验概率,类条件概率密度函数和后验概率等概念间的关系:先验概率针对M 个事件出现的可能性而言,不考虑其他任何条件类条件概率密度函数是指在已知某类别的特征空间中,出现特征值X 的概率密度,指第 类样品其属性X 是如何分布的。

后验概率是指通过调查或其它方式获取新的附加信息,利用贝叶斯公式对先验概率进行修正,而后得到的概率。

贝叶斯公式可以计算出该样品分属各类别的概率,叫做后验概率;看X 属于那个类的可能性最大,就把X 归于可能性最大的那个类,后验概率作为识别对象归属的依据。

贝叶斯公式为类别的状态是一个随机变量.而某种状态出现的概率是可以估计的。

贝叶斯公式体现了先验概率、类条件概率密度函数、后验概率三者关系的式子。

2. 试写出利用先验概率和分布密度函数计算后验概率的公式3. 写出最小错误率和最小风险决策规则相应的判别函数(两类问题)。

最小错误率如果12(|)(|)P x P x ωω>,则x 属于1ω 如果12(|)(|)P x P x ωω<,则x 属于2ω 最小风险决策规则 If12(|)(|)P x P x ωλω< then 1x ω∈If12(|)(|)P x P x ωλω> then 2x ω∈4. 分别写出以下两种情况下,最小错误率贝叶斯决策规则: (1)两类情况,且12(|)(|)P X P X ωω= (2)两类情况,且12()()P P ωω=最小错误率贝叶斯决策规则为:If 1...,(|)()max (|)i i j j cp x P P x ωωω==, then i x ω∈两类情况:若1122(|)()(|)()p X P p X P ωωωω>,则1X ω∈ 若1122(|)()(|)()p X P p X P ωωωω<,则2X ω∈(1) 12(|)(|)P X P X ωω=, 若12()()P P ωω>,则1X ω∈若12()()P P ωω<,则2X ω∈(2) 12()()P P ωω=,若12(|)(|)p X p X ωω>,则1X ω∈若12(|)(|)p X p X ωω<,则2X ω∈5. 对两类问题,证明最小风险贝叶斯决策规则可表示为, 若112222221111(|)()()(|)()()P x P P x P ωλλωωλλω->-则1x ω∈,反之则2x ω∈ 计算条件风险2111111221(|)(|)(|)(|)j j j R x p x P x P x αλωλωλω===+∑2222112221(|)(|)(|)(|)j j j R x p x P x P x αλωλωλω===+∑如果 111122(|)(|)P x P x λωλω+<211222(|)(|)P x P x λωλω+ 2111112222()(|)()(|)P x P x λλωλλω->-211111122222()()(|)()()(|)P p x P p x λλωωλλωω->-112222221111(|)()()(|)()()P x P P x P ωλλωωλλω->-所以,如果112222221111(|)()()(|)()()P x P P x P ωλλωωλλω->- ,则1x ω∈,反之则2x ω∈6. 表示模式的特征向量d x R ∈,对一个c 类分类问题,假设各类先验概率相等,每一类条件概率密度为高斯分布。

模式识别教学资料-2感知器算法作业

模式识别教学资料-2感知器算法作业

Lecture2作业1,已知类ω1由两个特征向量 0,0 T , 1,0 T 组成,类ω2由两个特征向量 0,1 T , 1,1 T 组成,使用感知器算法,并令w 0=(0,0)T ,设计这两类的线性分类函数。

2,证明:针对线性可分训练样本集,PLA 算法中,当W 0=0,在对分错样本进行了T 次纠正后,下式成立:W f T W f W TW T ≥ T ∙constant3,针对线性可分训练样本集,PLA 算法中,假设对分错样本进行了T 次纠正后得到的分类面不再出现错分状况,定义:R 2=max n x n 2,ρ=min n y n W f TW f x n ,试证明:T ≤R 2ρ2编程作业1,编写一个名为Perce 的函数,用它来实现感知器算法。

函数的输入/输出有:(a )一个N*d 维的矩阵X ,它的第i 行是第i 个数据向量; (b )一个N 维列向量y ,y 的第i 个元素包含了类(-1,1),并且该类与相应的向量相互对应;(c )用向量w_ini 初始化参数向量;并且返回估计参数向量; 假设函数最大迭代次数为10000。

2,(a )产生两个都具有200个二维向量的数据集X1和'1X (注意:在生成数据集之前最好使用命令randn(‘seed ’,0)初始化高斯随机生成器为0(或任意给定数值),这对结果的可重复性很重要)。

向量的前半部分来自均值向量T [-5,0]m1=的正态分布,并且协方差矩阵I =S1。

向量的后半部分来自均值向量T [5,0]m1=的正态分布,并且协方差矩阵I =S1。

其中I 是一个2*2的单位矩阵。

(b )在上述数据集上运用感知器算法,并且使用不同的初始向量初始化参数向量。

(c )测试每一种算法在X1和'1X 上的性能。

(d )画出数据集X1和'1X ,以及分类面。

3,重复第2题的内容,但是实验中要使用数据集X2和'2X (注意:在生成数据集之前最好使用命令randn(‘seed ’,0)初始化高斯随机生成器为0(或任意给定数值),这对结果的可重复性很重要)。

模式识别作业

模式识别作业

模式识别作业图像处理与模式识别作业二题目一:计算特征矢量之间的距离:任意构造10个人在程序设计、离散数学、数据结构、计算机组成原理4门课的成绩表。

计算两两之间的欧式距离、绝对值距离,设计合适的阈值,能否进行分类?答:题目中每个人共有四门课,也就是每个人有4个特征,每门课的成绩也就是这4个特征的量化。

例如某人的成绩就可以表示为(95,68,78,85)这样的一个四维向量。

在这样一个四维空间里,每个个体的相似程度也就可以用欧式距离或者绝对值距离表示。

根据这个相似度,我们就可以将相似度近的分为几类,使其类间距离和最大,类内距离和最小。

或者规定产生几类,具体进行分类。

可用的分类方法有很多,例如最大最小距离法、谱系聚类法、C-均值。

题目二:关于类的定义:如何定义类内各个样本的平均距离?如何定义类之间的距离?答:(1)根据不同的要求类内各个样本的平均距离可以有不同的定义方式。

一般而言,采用先求取类的类心,通过求各个样本与类心距离的平均值.但有时对于样本的聚簇要求格外看中,可以求样本两两距离的和的平均值。

(2)类间距离的方法有很多,例如欧式距离、马氏距离、明氏距离、汉明距离、角度相似性函数。

其中欧式距离较为常用。

设x=(x1, x2, …, xn)T, y=(y1, y2, …, yn)T 欧式距离(Euclidean)d(x, y) = ||x-y|| = [?i=1 n(xi-yi)2]1/2 d(x, y) = ?i=1 n|xi-yi|d(x, y) = maxi |xi-yi| d(x, y) = [?i=1 n(xi-yi)m]1/mm=2,1,?时分别是欧式距离、绝对值距离和切氏距离。

设n维矢量xi和xj是矢量集{x1, x2, …, xn}中的两个矢量,其马氏距离d d2(xi, xj) = (xi-xj)T V-1 (xi-xj)n1TV?(xi?x)(xi?x)?n11i?1x?m??xi绝对值距离(Manhattan距离)切氏距离(Chebyahev)闵科夫斯基距离(Minkowski)马氏距离(Mahalanohis)是:mi?1题目三:你如何理解准则函数?图像处理与模式识别作业二答:准则函数-用具体函数评价系统所采取策略优劣的准则时,称为准则函数。

中科院模式识别第二次作业参考答案

中科院模式识别第二次作业参考答案

4

当 2 3 时,有:
Q( , 0 ) 不存在。
对分布进行归一化,有 P ( x2 ) ~ U (0, 2 ) ,故


P( x )dx
2
2
1
对 P ( x1 ) ,有
p( x1 )dx1
0 0
1
1
e 1x1 dx1 1
因此, 1 1 。
2
1 ( x )2 1 1 x v 2 exp 2 2 nh 2 hn 2 2 hn 2 n 2 hn hn hn nhn hn nhn 1 ( x )2 exp 2 2 2 2 hn 2 2 hn 1 1 ( x )2 1 exp 2 2 2
(c) 用递归公式计算样本均值,每次更新的计算复杂度为: O ( d ) 用递归公式计算样本协方差,每次更新的计算复杂度为: O ( d ) (d) 当样本量非常大,或者样本是边输入边分类的时候,考虑采用递归公式,这是在线分类。 当样本量比较小,可以全部输入之后再分类的时候,考虑采用非递归公式,这是离线分类。
2
2
)1 。
当 1 1, 2 3 时,取得最大值: Q ( , 0 ) 8.52 故,当 3 时, Q( , 0 ) 取得最大值。
1
1 2 x1 2 e (c) 当 4 时,有 P ( x1 , x2 ) 8 0
因此: pn ( x) ~ N ( , hn )
(b) 计算得:
Var [ pn ( x)] Var [
1 nhn

模式识别习题及答案

模式识别习题及答案

模式识别习题及答案模式识别习题及答案模式识别是人类智能的重要组成部分,也是机器学习和人工智能领域的核心内容。

通过模式识别,我们可以从大量的数据中发现规律和趋势,进而做出预测和判断。

本文将介绍一些模式识别的习题,并给出相应的答案,帮助读者更好地理解和应用模式识别。

习题一:给定一组数字序列,如何判断其中的模式?答案:判断数字序列中的模式可以通过观察数字之间的关系和规律来实现。

首先,我们可以计算相邻数字之间的差值或比值,看是否存在一定的规律。

其次,我们可以将数字序列进行分组,观察每组数字之间的关系,看是否存在某种模式。

最后,我们还可以利用统计学方法,如频率分析、自相关分析等,来发现数字序列中的模式。

习题二:如何利用模式识别进行图像分类?答案:图像分类是模式识别的一个重要应用领域。

在图像分类中,我们需要将输入的图像分为不同的类别。

为了实现图像分类,我们可以采用以下步骤:首先,将图像转换为数字表示,如灰度图像或彩色图像的像素矩阵。

然后,利用特征提取算法,提取图像中的关键特征。

接下来,选择合适的分类算法,如支持向量机、神经网络等,训练模型并进行分类。

最后,评估分类结果的准确性和性能。

习题三:如何利用模式识别进行语音识别?答案:语音识别是模式识别在语音信号处理中的应用。

为了实现语音识别,我们可以采用以下步骤:首先,将语音信号进行预处理,包括去除噪声、降低维度等。

然后,利用特征提取算法,提取语音信号中的关键特征,如梅尔频率倒谱系数(MFCC)。

接下来,选择合适的分类算法,如隐马尔可夫模型(HMM)、深度神经网络(DNN)等,训练模型并进行语音识别。

最后,评估识别结果的准确性和性能。

习题四:如何利用模式识别进行时间序列预测?答案:时间序列预测是模式识别在时间序列分析中的应用。

为了实现时间序列预测,我们可以采用以下步骤:首先,对时间序列进行平稳性检验,确保序列的均值和方差不随时间变化。

然后,利用滑动窗口或滚动平均等方法,将时间序列划分为训练集和测试集。

模式识别作业

模式识别作业

第二章主要内容:几种常见的聚类算法已经所使用的准则函数。

作业1:对如下5个6维模式样本,用最小聚类准则进行系统聚类分析 已知样本如下:x1: 0, 1, 3, 1, 3, 4;x2: 3, 3, 3, 1, 2, 1;x3: 1, 0, 0, 0, 1, 1;x4: 2, 1, 0, 2, 2, 1;x5: 0, 0, 1, 0, 1, 0 第1步:将每一样本看成单独一类,得(0)(0)(0)112233(0)(0)4455{},{},{}{},{}G x G x G x Gx Gx =====计算各类之间的欧式距离,可得距离矩阵(0)D第2步:矩阵(0)D,它是(0)3G 和(0)5G 之间的距离,将他们合并为一类,得新的分类为(1)(0)(1)(0)(1)(0)(0)(1)(0)112233544{},{},{,},{}G G G G G G G G G ====计算聚类后的距离矩阵(1)D 第3步:由于(1)D 它是(1)3G 与(1)4G 之间的距离,于是合并(1)3G 和(1)4G ,得新的分类为(2)(1)(2)(2)(2)(1)(1)1122334{},{},{,}G G G G G G G ===同样,按最小距离准则计算距离矩阵(2)D,得第4步:同理得(3)(2)(3)(2)(2)11223{},{,}G G G G G == 满足聚类要求,如聚为2类,聚类完毕。

系统聚类算法介绍:第一步:设初始模式样本共有N 个,每个样本自成一类,即建立N 类。

G 1(0), G 2(0) , ……,G N (0)为计算各类之间的距离(初始时即为各样本间的距离),得到一个N*N 维的距离矩阵D(0)。

这里,标号(0)表示聚类开始运算前的状态。

第二步:假设前一步聚类运算中已求得距离矩阵D(n),n 为逐次聚类合并的次数,则求D(n)中的最小元素。

如果它是Gi(n)和Gj(n)两类之间的距离,则将Gi(n)和Gj(n)两类合并为一类G ij (n+1),由此建立新的分类:G 1(n+1), G 2(n+1)……第三步:计算合并后新类别之间的距离,得D(n+1)。

模式识别大作业

模式识别大作业

模式识别大作业(总21页)--本页仅作为文档封面,使用时请直接删除即可----内页可以根据需求调整合适字体及大小--作业1 用身高和/或体重数据进行性别分类(一)基本要求:用和的数据作为训练样本集,建立Bayes分类器,用测试样本数据对该分类器进行测试。

调整特征、分类器等方面的一些因素,考察它们对分类器性能的影响,从而加深对所学内容的理解和感性认识。

具体做法:1.应用单个特征进行实验:以(a)身高或者(b)体重数据作为特征,在正态分布假设下利用最大似然法或者贝叶斯估计法估计分布密度参数,建立最小错误率Bayes分类器,写出得到的决策规则,将该分类器应用到测试样本,考察测试错误情况。

在分类器设计时可以考察采用不同先验概率(如对, 对, 对等)进行实验,考察对决策规则和错误率的影响。

图1-先验概率:分布曲线图2-先验概率:分布曲线图3--先验概率:分布曲线图4不同先验概率的曲线有图可以看出先验概率对决策规则和错误率有很大的影响。

程序:和2.应用两个特征进行实验:同时采用身高和体重数据作为特征,分别假设二者相关或不相关(在正态分布下一定独立),在正态分布假设下估计概率密度,建立最小错误率Bayes分类器,写出得到的决策规则,将该分类器应用到训练/测试样本,考察训练/测试错误情况。

比较相关假设和不相关假设下结果的差异。

在分类器设计时可以考察采用不同先验概率(如 vs. , vs. , vs. 等)进行实验,考察对决策和错误率的影响。

训练样本female来测试图1先验概率 vs. 图2先验概率 vs.图3先验概率 vs. 图4不同先验概率对测试样本1进行试验得图对测试样本2进行试验有图可以看出先验概率对决策规则和错误率有很大的影响。

程序和3.自行给出一个决策表,采用最小风险的Bayes决策重复上面的某个或全部实验。

W1W2W10W20close all;clear all;X=120::200; %设置采样范围及精度pw1=;pw2=; %设置先验概率sample1=textread('') %读入样本samplew1=zeros(1,length(sample1(:,1)));u1=mean(sample1(:,1));m1=std(sample1(:,1));y1=normpdf(X,u1,m1); %类条件概率分布figure(1);subplot(2,1,1);plot(X,y1);title('F身高类条件概率分布曲线');sample2=textread('') %读入样本samplew2=zeros(1,length(sample2(:,1)));u2=mean(sample2(:,1));m2=std(sample2(:,1));y2=normpdf(X,u2,m2); %类条件概率分布subplot(2,1,2);plot(X,y2);title('M身高类条件概率分布曲线');P1=pw1*y1./(pw1*y1+pw2*y2);P2=pw2*y2./(pw1*y1+pw2*y2);figure(2);subplot(2,1,1);plot(X,P1);title('F身高后验概率分布曲线');subplot(2,1,2);plot(X,P2);title('M身高后验概率分布曲线');P11=pw1*y1;P22=pw2*y2;figure(3);subplot(3,1,1);plot(X,P11);subplot(3,1,2);plot(X,P22);subplot(3,1,3);plot(X,P11,X,P22);sample=textread('all ') %读入样本[result]=bayes(sample1(:,1),sample2(:,1),pw1,pw2);%bayes分类器function [result] =bayes(sample1(:,1),sample2(:,1),pw1,pw2); error1=0;error2=0;u1=mean(sample1(:,1));m1=std(sample1(:,1));y1=normpdf(X,u1,m1); %类条件概率分布u2=mean(sample2(:,1));m2=std(sample2(:,1));y2=normpdf(X,u2,m2); %类条件概率分布P1=pw1*y1./(pw1*y1+pw2*y2);P2=pw2*y2./(pw1*y1+pw2*y2);for i = 1:50if P1(i)>P2(i)result(i)=0;pe(i)=P2(i);elseresult(i)=1;pe(i)=P1(i);endendfor i=1:50if result(k)==0error1=error1+1;else result(k)=1error2=error2+1;endendratio = error1+error2/length(sample); %识别率,百分比形式sprintf('正确识别率为%.2f%%.',ratio)作业2 用身高/体重数据进行性别分类(二)基本要求:试验直接设计线性分类器的方法,与基于概率密度估计的贝叶斯分离器进行比较。

模式识别作业题(2)

模式识别作业题(2)


∏ p( x | μ ) p( μ )
i =1 i
N


i =1
N
⎡ 1 ⎢ exp ⎢ − 2πσ ⎢ ⎣
( xi − μ )

2
2
⎤ ⎡ 1 ⎥ ⎢ ⎥ • 2πσ exp ⎢ − 0 ⎥ ⎢ ⎦ ⎣
( μ − μ0 ) ⎤⎥ ⎥ 2σ ⎥ 0 ⎦
2 2
= α exp ⎢ − [⎜
''
⎡ 1 ⎛ N ⎛ 1 1 ⎞ 2 μ + − 2 ⎟ ⎜ 2 2 σ 02 ⎟ 2 ⎜ ⎢ ⎝σ σ ⎝ ⎠ ⎣
2 1 N +C ( x − μ ) ∑ 2 i =1 i
似然函数 μ 求导
∂L( μ ) N = ∑ x -N μ =0 i ∂μ i =1

所以 μ 的最大似然估计: μ =
1 N
∑ xi
i =1
N
贝叶斯估计: p( μ |X)=
p( X | μ ) p( μ )
∫ p( X | μ ) p(μ )du
2 σn =
σ 02σ 2 2 Nσ 0 +σ 2
其中, mN =
1 N
∑x ,μ
i =1 i
N
n
就是贝叶斯估计。
7 略
得证。 3、使用最小最大损失判决规则的错分概率是最小吗?为什么?
答:不是最小的。首先要明确当我们谈到最小最大损失判决规则时,先验概率是未知的, 而先验概率的变化会导致错分概率变化, 故错分概率也是一个变量。 使用最小最大损 失判决规则的目的就是保证在先验概率任意变化导致错分概率变化时, 错分概率的最 坏(即最大)情况在所有判决规则中是最好的(即最小)。 4、 若 λ11 = λ22 =0, λ12 = λ21 ,证明此时最小最大决策面是来自两类的错误率相等。 证明:最小最大决策面满足 ( λ11 - λ22 )+( λ21 - λ11 ) 容易得到
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
得证。 3、使用最小最大损失判决规则的错分概率是最小吗?为什么?
答:不是最小的。首先要明确当我们谈到最小最大损失判决规则时,先验概率是未知的, 而先验概率的变化会导致错分概率变化, 故错分概率也是一个变量。 使用最小最大损 失判决规则的目的就是保证在先验概率任意变化导致错分概率变化时, 错分概率的最 坏(即最大)情况在所有判决规则中是最好的(即最小)。 4、 若 λ11 = λ22 =0, λ12 = λ21 ,证明此时最小最大决策面是来自两类的错误率相等。 证明:最小最大决策面满足 ( λ11 - λ22 )+( λ21 - λ11 ) 容易得到
λ11 P(ω1 | x) + λ12 P(ω2 | x) < λ21 P(ω1 | x) + λ22 P(ω2 | x) ( λ21 - λ11 ) P (ω1 | x) >( λ12 - λ22 ) P (ω2 | x) ( λ21 - λ11 ) P (ω1 ) P ( x | ω1 ) >( λ12 - λ22 ) P (ω2 ) P ( x | ω2 ) p( x | ω1 ) (λ 12 − λ 22) P(ω2 ) > 即 p( x | ω2 ) ( λ 21 − λ 11) P (ω1 )
6、设总体分布密度为 N( μ ,1),-∞< μ <+∞,并设 X={ x1 , x2 ,… xN },分别用最大似然 估计和贝叶斯估计计算 μ 。已知 μ 的先验分布 p( μ )~N(0,1)。 解:似然函数为:
∧Байду номын сангаас
L( μ )=lnp(X|u)=
∑ ln p( xi | u) = −
i =1
N
模式识别第三章作业及其解答
1、已知两个一维模式类别的类概率密度函数为 ⎧ x 0≤x<1 p(x|ω1)=⎨ 2-x 1≤x≤2 ⎩ 0 其它 ⎧ x−1 1≤x<2 p(x|ω2)=⎨ 3-x 2≤x≤3 ⎩ 0 其它 先验概率 P(ω1)=0.6,P(ω2)=0.4, (1)求 0-1 代价 Bayes 判决函数; (2)求总错误概率 P(e); (3)判断样本{x1=1.35,x2=1.45,x3=1.55,x4=1.65}各属于哪一类别。 解:(1)Bayes 判决函数如下: P(ω1)P(ω1/x)> P(ω2)P(ω2/x) ① ==> x∈ω1 P(ω2)P(ω2/x)> P(ω1)P(ω1/x) ② ==> x∈ω2 分情况讨论后判决规则如下: 当 0<x<1.6 时,x∈ω1 当 1.6<x<3 时,x∈ω2 其它情况拒判或任意判决 ( (2) P(e)= P(ω1)P1(e)+ P(ω2)P2(e)=0.6* (3)由(1)中结果 x1、x2、x3∈ω1 ;x4∈ω2
2
∑x +σ
i =1 i
N
μ0 ⎞
⎤ ⎥ μ ] ⎟ 2 ⎥ 0 ⎠ ⎦
将 p( μ |X)写成 N( μ n , σ n )的形式,利用待定系数法,可以求得:
1
σ
2 n
=
N
σ
2
+
1
σ 02 μ0
2 0
μn 1 = 2 2 σn σ
进一步求得 μ n 和 σ n
2
∑x +σ
i =1 i
N
μn =
2 Nσ 0 σ2 m + μ0 N 2 2 +σ 2 Nσ 0 +σ 2 Nσ 0
R (α1 | x) = ∑ λ1 j P (ω j | x) = λ11 P (ω1 | x) + λ12 P(ω2 | x) R (α 2 | x) = ∑ λ2 j P(ω j | x) = λ21 P(ω1 | x) + λ22 P(ω2 | x)
j =1
2
如果 R (α1 | x) < R (α 2 | x) ,则 x∈ω1
2 σn =
σ 02σ 2 2 Nσ 0 +σ 2
其中, mN =
1 N
∑x ,μ
i =1 i
N
n
就是贝叶斯估计。
7 略

∏ p( x | μ ) p( μ )
i =1 i
N


i =1
N
⎡ 1 ⎢ exp ⎢ − 2πσ ⎢ ⎣
( xi − μ )

2
2
⎤ ⎡ 1 ⎥ ⎢ ⎥ • 2πσ exp ⎢ − 0 ⎥ ⎢ ⎦ ⎣
( μ − μ0 ) ⎤⎥ ⎥ 2σ ⎥ 0 ⎦
2 2
= α exp ⎢ − [⎜
''
⎡ 1 ⎛ N ⎛ 1 1 ⎞ 2 μ + − 2 ⎟ ⎜ 2 2 σ 02 ⎟ 2 ⎜ ⎢ ⎝σ σ ⎝ ⎠ ⎣
2 1 N +C ( x − μ ) ∑ 2 i =1 i
似然函数 μ 求导
∂L( μ ) N = ∑ x -N μ =0 i ∂μ i =1

所以 μ 的最大似然估计: μ =
1 N
∑ xi
i =1
N
贝叶斯估计: p( μ |X)=
p( X | μ ) p( μ )
∫ p( X | μ ) p(μ )du

Ω2
p( x | ω1 )dx -( λ12 - λ22 ) ∫ p( x | ω2 )dx =0
Ω1

Ω1
p( x | ω2 )dx = ∫ p( x | ω1 )dx
Ω2
所以此时 P1(e)=P2(e) 5、二维正态分布, μ1 =
= 1,0), Σ = Σ (-1,0), μ (
2 1
T
T
2
=
1 [ (x 2
− μ1)
T
( x − μ1 ) - ( x
− μ2 )
T
( x − μ2 ) ]
而 ln
| P(ω1 ) | =0。 | P(ω2 ) |
所以判别规则为当
( x − μ1)
T
( x − μ1 ) > ( x
− μ2 )
T
( x − μ2 ) ,则 x∈ω1;反
之,则 x∈ω2。即将 x 判给离它最近的 μi 的那个类。 将数值代入计算即可。

2
1.6
(2 − x)dx ) +0.4* ( ∫ ( x − 1) dx ) =0.12
1
1.6
2、对两类问题,证明最小风险贝叶斯决策规则可表示为,若
则 x∈ω1, 反之 x∈ω2 解:计算条件风险
2
j =1
p ( x | w1 ) (λ 12 − λ 22) P( w2 ) > p ( x | w2 ) ( λ 21 − λ 11) P ( w1 )
=I,P(ω1)=P(ω2)。试写出对
数似然比决策规则。 解:h(x)=-ln[l(x)]=-ln p ( x | ω1 ) +ln p ( x | ω2 ) =
1 2
( x1 − μ1) Σ
T
−1
1
( x1 − μ1 ) -
1 2
( x2 − μ2 ) Σ
T
−1
2
1 |Σ | ( x2 − μ2 ) + ln 1 2 | Σ2 |
相关文档
最新文档