模式识别作业--两类贝叶斯分类

合集下载

模式识别作业题(2)

模式识别作业题(2)
得证。 3、使用最小最大损失判决规则的错分概率是最小吗?为什么?
答:不是最小的。首先要明确当我们谈到最小最大损失判决规则时,先验概率是未知的, 而先验概率的变化会导致错分概率变化, 故错分概率也是一个变量。 使用最小最大损 失判决规则的目的就是保证在先验概率任意变化导致错分概率变化时, 错分概率的最 坏(即最大)情况在所有判决规则中是最好的(即最小)。 4、 若 λ11 = λ22 =0, λ12 = λ21 ,证明此时最小最大决策面是来自两类的错误率相等。 证明:最小最大决策面满足 ( λ11 - λ22 )+( λ21 - λ11 ) 容易得到
λ11 P(ω1 | x) + λ12 P(ω2 | x) < λ21 P(ω1 | x) + λ22 P(ω2 | x) ( λ21 - λ11 ) P (ω1 | x) >( λ12 - λ22 ) P (ω2 | x) ( λ21 - λ11 ) P (ω1 ) P ( x | ω1 ) >( λ12 - λ22 ) P (ω2 ) P ( x | ω2 ) p( x | ω1 ) (λ 12 − λ 22) P(ω2 ) > 即 p( x | ω2 ) ( λ 21 − λ 11) P (ω1 )
6、设总体分布密度为 N( μ ,1),-∞< μ <+∞,并设 X={ x1 , x2 ,… xN },分别用最大似然 估计和贝叶斯估计计算 μ 。已知 μ 的先验分布 p( μ )~N(0,1)。 解:似然函数为:
∧Байду номын сангаас
L( μ )=lnp(X|u)=
∑ ln p( xi | u) = −
i =1
N
模式识别第三章作业及其解答

贝叶斯决策理论-模式识别课程作业

贝叶斯决策理论-模式识别课程作业

研究生课程作业贝叶斯决策理论课程名称模式识别姓名xx学号xxxxxxxxx专业软件工程任课教师xxxx提交时间2019.xxx课程论文提交时间:2019 年3月19 日需附上习题题目1. 试简述先验概率,类条件概率密度函数和后验概率等概念间的关系:先验概率针对M 个事件出现的可能性而言,不考虑其他任何条件类条件概率密度函数是指在已知某类别的特征空间中,出现特征值X 的概率密度,指第 类样品其属性X 是如何分布的。

后验概率是指通过调查或其它方式获取新的附加信息,利用贝叶斯公式对先验概率进行修正,而后得到的概率。

贝叶斯公式可以计算出该样品分属各类别的概率,叫做后验概率;看X 属于那个类的可能性最大,就把X 归于可能性最大的那个类,后验概率作为识别对象归属的依据。

贝叶斯公式为类别的状态是一个随机变量.而某种状态出现的概率是可以估计的。

贝叶斯公式体现了先验概率、类条件概率密度函数、后验概率三者关系的式子。

2. 试写出利用先验概率和分布密度函数计算后验概率的公式3. 写出最小错误率和最小风险决策规则相应的判别函数(两类问题)。

最小错误率如果12(|)(|)P x P x ωω>,则x 属于1ω 如果12(|)(|)P x P x ωω<,则x 属于2ω 最小风险决策规则 If12(|)(|)P x P x ωλω< then 1x ω∈If12(|)(|)P x P x ωλω> then 2x ω∈4. 分别写出以下两种情况下,最小错误率贝叶斯决策规则: (1)两类情况,且12(|)(|)P X P X ωω= (2)两类情况,且12()()P P ωω=最小错误率贝叶斯决策规则为:If 1...,(|)()max (|)i i j j cp x P P x ωωω==, then i x ω∈两类情况:若1122(|)()(|)()p X P p X P ωωωω>,则1X ω∈ 若1122(|)()(|)()p X P p X P ωωωω<,则2X ω∈(1) 12(|)(|)P X P X ωω=, 若12()()P P ωω>,则1X ω∈若12()()P P ωω<,则2X ω∈(2) 12()()P P ωω=,若12(|)(|)p X p X ωω>,则1X ω∈若12(|)(|)p X p X ωω<,则2X ω∈5. 对两类问题,证明最小风险贝叶斯决策规则可表示为, 若112222221111(|)()()(|)()()P x P P x P ωλλωωλλω->-则1x ω∈,反之则2x ω∈ 计算条件风险2111111221(|)(|)(|)(|)j j j R x p x P x P x αλωλωλω===+∑2222112221(|)(|)(|)(|)j j j R x p x P x P x αλωλωλω===+∑如果 111122(|)(|)P x P x λωλω+<211222(|)(|)P x P x λωλω+ 2111112222()(|)()(|)P x P x λλωλλω->-211111122222()()(|)()()(|)P p x P p x λλωωλλωω->-112222221111(|)()()(|)()()P x P P x P ωλλωωλλω->-所以,如果112222221111(|)()()(|)()()P x P P x P ωλλωωλλω->- ,则1x ω∈,反之则2x ω∈6. 表示模式的特征向量d x R ∈,对一个c 类分类问题,假设各类先验概率相等,每一类条件概率密度为高斯分布。

模式识别与机器学习 作业 中科院 国科大 来源网络 (3)

模式识别与机器学习 作业 中科院 国科大 来源网络 (3)

{ double sum=0.0; for(int j=0;j<T;j++) sum+=a[j]*C[j][i]; res[i]=sum; } } int main() { int T; int w1_num,w2_num; double w1[10][5],w2[10][5],m1[5]={0},m2[5]={0},C1[5][5]={0},C2[5][5]={0}; cin>>T>>w1_num>>w2_num; for(int i=0;i<w1_num;i++) { for(int j=0;j<T;j++) { cin>>w1[i][j]; m1[j]+=w1[i][j]; } } for(int i=0;i<w2_num;i++) { for(int j=0;j<T;j++) { cin>>w2[i][j]; m2[j]+=w2[i][j]; } } for(int i=0;i<w1_num;i++) m1[i]=m1[i]/w1_num; for(int i=0;i<w2_num;i++) m2[i]=m2[i]/w2_num; for(int i=0;i<w1_num;i++) { double res[5][5],a[5]; for(int j=0;j<T;j++) a[j]=w1[i][j]-m1[j]; get_matrix(T,res,a); for(int j=0;j<T;j++) { for(int k=0;k<T;k++) C1[j][k]+=res[j][k]; }

《模式识别》实验报告-贝叶斯分类

《模式识别》实验报告-贝叶斯分类

《模式识别》实验报告---最小错误率贝叶斯决策分类一、实验原理对于具有多个特征参数的样本(如本实验的iris 数据样本有4d =个参数),其正态分布的概率密度函数可定义为112211()exp ()()2(2)T d p π-⎧⎫=--∑-⎨⎬⎩⎭∑x x μx μ 式中,12,,,d x x x ⎡⎤⎣⎦=x 是d 维行向量,12,,,d μμμ⎡⎤⎣⎦=μ是d 维行向量,∑是d d ⨯维协方差矩阵,1-∑是∑的逆矩阵,∑是∑的行列式。

本实验我们采用最小错误率的贝叶斯决策,使用如下的函数作为判别函数()(|)(),1,2,3i i i g p P i ωω==x x (3个类别)其中()i P ω为类别i ω发生的先验概率,(|)i p ωx 为类别i ω的类条件概率密度函数。

由其判决规则,如果使()()i j g g >x x 对一切j i ≠成立,则将x 归为i ω类。

我们根据假设:类别i ω,i=1,2,……,N 的类条件概率密度函数(|)i p ωx ,i=1,2,……,N 服从正态分布,即有(|)i p ωx ~(,)i i N ∑μ,那么上式就可以写为1122()1()exp ()(),1,2,32(2)T i i dP g i ωπ-⎧⎫=-∑=⎨⎬⎩⎭∑x x -μx -μ对上式右端取对数,可得111()()()ln ()ln ln(2)222T i i i i dg P ωπ-=-∑+-∑-i i x x -μx -μ上式中的第二项与样本所属类别无关,将其从判别函数中消去,不会改变分类结果。

则判别函数()i g x 可简化为以下形式111()()()ln ()ln 22T i i i i g P ω-=-∑+-∑i i x x -μx -μ二、实验步骤(1)从Iris.txt 文件中读取估计参数用的样本,每一类样本抽出前40个,分别求其均值,公式如下11,2,3ii iii N ωωω∈==∑x μxclear% 原始数据导入iris = load('C:\MATLAB7\work\模式识别\iris.txt'); N=40;%每组取N=40个样本%求第一类样本均值 for i = 1:N for j = 1:4w1(i,j) = iris(i,j+1); end endsumx1 = sum(w1,1); for i=1:4meanx1(1,i)=sumx1(1,i)/N; end%求第二类样本均值 for i = 1:N for j = 1:4 w2(i,j) = iris(i+50,j+1);end endsumx2 = sum(w2,1); for i=1:4meanx2(1,i)=sumx2(1,i)/N; end%求第三类样本均值 for i = 1:N for j = 1:4w3(i,j) = iris(i+100,j+1); end endsumx3 = sum(w3,1); for i=1:4meanx3(1,i)=sumx3(1,i)/N; end(2)求每一类样本的协方差矩阵、逆矩阵1i -∑以及协方差矩阵的行列式i ∑, 协方差矩阵计算公式如下11()(),1,2,3,41i ii N i jklj j lk k l i x x j k N ωωσμμ==--=-∑其中lj x 代表i ω类的第l 个样本,第j 个特征值;ij ωμ代表i ω类的i N 个样品第j 个特征的平均值lk x 代表i ω类的第l 个样品,第k 个特征值;iw k μ代表i ω类的i N 个样品第k 个特征的平均值。

朴素贝叶斯分类模型 二分类

朴素贝叶斯分类模型 二分类

朴素贝叶斯分类模型二分类朴素贝叶斯是一种常用的分类算法,特别适用于文本分类问题。

它基于贝叶斯定理,假设各个特征都是独立的,且对分类结果贡献相等。

在实际应用中,朴素贝叶斯分类器以其高效性、稳定性和准确性,成为了文本分类、信用评级、邮件过滤等领域的重要算法。

朴素贝叶斯分类模型是一个典型的二分类模型,即将数据分为两个不同的类别。

具体地,朴素贝叶斯分类器将每个数据点都看作是由若干属性(特征)组成的向量,每个特征都是独立且相互独立的,用于描述不同类别的特征分布情况。

根据贝叶斯定理,对于给定的数据点,在所有可能的类别中,朴素贝叶斯分类器会选择概率最大的类别作为标签。

在朴素贝叶斯分类器中,需要先对样本数据进行训练,从而得到各个特征的条件概率分布。

具体来说,给定m个样本点和n个特征,我们需要计算出这n个特征在不同类别中出现的概率。

例如,在文本分类中,统计每个单词在不同类别的文本中出现的频数,从而得到单词在不同类别下的出现概率。

然后,我们就可以根据贝叶斯定理,用这些概率来计算每个样本点属于不同类别的概率,并选择概率最大的类别作为标签。

在实际应用中,朴素贝叶斯分类器具有快速、高效、适用于大规模数据等优点。

同时,朴素贝叶斯分类器还具有一定的缺点,主要表现在对特征独立性的要求较高,对数据分布偏斜的情况较为敏感。

因此,在实际应用中,我们需要根据不同的问题情况选择不同的分类算法,以获得最佳的分类效果。

总之,朴素贝叶斯分类模型是一种常用的二分类算法,它基于贝叶斯定理和特征独立性假设,通过计算特征在不同类别中出现的概率,从而对数据进行分类。

在实际应用中,朴素贝叶斯分类器具有一定的优点和缺点,需要结合具体问题情况进行选择和改进。

模式识别实验

模式识别实验

实验1 图像的贝叶斯分类1.1 实验目的将模式识别方法与图像处理技术相结合,掌握利用最小错分概率贝叶斯分类器进行图像分类的基本方法,通过实验加深对基本概念的理解。

1.2 实验仪器设备及软件HP D538、MATLAB1.3 实验原理1.3.1 基本原理阈值化分割算法是计算机视觉中的常用算法,对灰度图象的阈值分割就是先确定一个处于图像灰度取值范围内的灰度阈值,然后将图像中每个像素的灰度值与这个阈值相比较。

并根据比较的结果将对应的像素划分为两类,灰度值大于阈值的像素划分为一类,小于阈值的划分为另一类,等于阈值的可任意划分到两类中的任何一类。

此过程中,确定阈值是分割的关键。

对一般的图像进行分割处理通常对图像的灰度分布有一定的假设,或者说是基于一定的图像模型。

最常用的模型可描述如下:假设图像由具有单峰灰度分布的目标和背景组成,处于目标和背景内部相邻像素间的灰度值是高度相关的,但处于目标和背景交界处两边的像素灰度值有较大差别,此时,图像的灰度直方图基本上可看作是由分别对应于目标和背景的两个单峰直方图混合构成。

而且这两个分布应大小接近,且均值足够远,方差足够小,这种情况下直方图呈现较明显的双峰。

类似地,如果图像中包含多个单峰灰度目标,则直方图可能呈现较明显的多峰。

上述图像模型只是理想情况,有时图像中目标和背景的灰度值有部分交错。

这时如用全局阈值进行分割必然会产生一定的误差。

分割误差包括将目标分为背景和将背景分为目标两大类。

实际应用中应尽量减小错误分割的概率,常用的一种方法为选取最优阈值。

这里所谓的最优阈值,就是指能使误分割概率最小的分割阈值。

图像的直方图可以看成是对灰度值概率分布密度函数的一种近似。

如一幅图像中只包含目标和背景两类灰度区域,那么直方图所代表的灰度值概率密度函数可以表示为目标和背景两类灰度值概率密度函数的加权和。

如果概率密度函数形式已知,就有可能计算出使目标和背景两类误分割概率最小的最优阈值。

二分类朴素贝叶斯例题

二分类朴素贝叶斯例题

二分类朴素贝叶斯例题《二分类朴素贝叶斯例题》在机器学习领域中,分类是一个重要的任务,它可以将数据集划分为不同的类别。

朴素贝叶斯分类器是一种基于概率的分类方法,它采用了贝叶斯定理,并假设特征之间是相互独立的。

本文将介绍一个关于二分类朴素贝叶斯的例题。

假设我们有一个邮件分类的数据集,它包含了许多已被标记为垃圾邮件和非垃圾邮件的样本。

每个样本都有多个特征,比如邮件的主题、发送者、内容等。

我们的目标是根据这些特征来对新的邮件进行分类。

首先,我们需要准备数据集并进行预处理。

预处理包括去除噪声、标准化数据等步骤。

在这个例题中,我们假设已经完成了预处理,并得到了一个包含特征和标签的训练集。

特征被表示为一个向量,而标签则用0表示非垃圾邮件,用1表示垃圾邮件。

接下来,我们可以使用朴素贝叶斯分类器对训练集进行训练。

朴素贝叶斯分类器的基本思想是通过计算给定特征的概率来预测新样本的类别。

这里的朴素贝叶斯假设指的是假设每个特征的出现概率是相互独立的。

训练步骤涉及计算每个类别的先验概率和每个特征在给定类别下的条件概率。

先验概率表示的是某个样本属于某个类别的概率,而条件概率则表示的是在已知类别的情况下,某个特征出现的概率。

这些概率可以通过统计训练集中的样本来进行估计。

在训练完成后,我们可以使用分类器对新的样本进行预测。

预测步骤包括计算新样本属于每个类别的概率,并选择具有最高概率的类别作为预测结果。

在实际应用中,我们可以使用不同的评价指标来评估分类器的性能,比如准确率、精确率、召回率等。

此外,可以通过调整分类器的参数或选择其他特征来改进分类器的性能。

通过这个例题,我们可以了解到朴素贝叶斯分类器的基本原理和应用方法。

它是一种简单而有效的分类算法,在文本分类、垃圾邮件过滤等领域中有广泛应用。

通过适当地调整参数和特征选择,我们可以提高分类器的性能,并对新的样本进行准确的分类预测。

模式识别二分类方法

模式识别二分类方法

模式识别二分类方法
模式识别中的二分类方法是一种常见的分类问题,主要解决的是将数据分为两类的问题。

常见的二分类方法包括逻辑回归、支持向量机、朴素贝叶斯等。

在二分类问题中,我们通常会使用一些特征来描述数据,然后通过分类器将这些特征映射到两类标签中。

其中,逻辑回归是一种基于概率的二分类方法,通过计算给定特征下每个类别的概率,选择概率较大的类别作为预测结果。

支持向量机则是一种基于统计学习理论的分类方法,通过找到能够将两类数据点最大化分隔的决策边界来实现分类。

朴素贝叶斯则是一种基于概率论的分类方法,通过计算每个类别的条件概率,选择条件概率最大的类别作为预测结果。

除了以上提到的几种二分类方法外,还有许多其他的二分类方法,如随机森林、梯度提升等。

这些方法各有优缺点,需要根据具体的问题和数据特征选择适合的方法。

此外,对于二分类问题中的不平衡数据集问题,我们也可以采用一些特殊的方法进行处理,如过采样、欠采样、使用合成数据等。

这些方法可以帮助我们在处理不平衡数据集时提高分类准确率。

总之,二分类方法是模式识别中重要的组成部分,其应用范围广泛,选择适合的方法需要结合具体的问题和数据特征进行考虑。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

深圳大学研究生课程:模式识别理论与方法课程作业实验报告实验名称:Bayes Classifier实验编号:proj02-01姓名:汪长泉学号:2100130303规定提交日期:2010年10月20日实际提交日期:2010年10月20日摘要:在深入掌握多维高斯分布性质,贝叶斯分类的基础上,用计算机编程实现一个分类两类模式样本的贝叶斯分类器。

用matlab编程,并分析了实验结果,得出贝叶斯分类的一般结论。

1. 贝叶斯分类器贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。

1.1 两类情况两类情况是多类情况的基础,多类情况往往是用多个两类情况解决的。

① 用i ω,i =1, 2表示样本x (一般用列向量表示)所属的类别。

② 假设先验概率()P ω1,()P ω2已知。

(这个假设是合理的,因为如果先验概率未知,可以从训练特征向量中估算出来,即如果N 是训练样本总数,其中有,N N 12个样本分别属于2,1ωω,则相应的先验概率:()/P N N ω≈11,2()/P N N ω≈2)③ 假设(类)条件概率密度函数(|),i p ωx i =1,2已知,用来描述每一类中特征向量的分布情况。

如果类条件概率密度函数未知,则可以从可用的训练数据中估计出来。

1.2贝叶斯判别方法贝叶斯分类规则描述为:如果2(|)(|)P ωP ω>1x x ,则x ∈1ω如果2(|)(|)P ωP ω<1x x ,则x ∈2ω (2-1-1) 贝叶斯分类规则就是看x ∈ω1的可能性大,还是x ∈2ω的可能性大。

(|)i P ωx ,i =1,2解释为当样本x 出现时,后验概率(|)P ω1x 和(|)P ω2x 的大小从而判别为属于1ω或属于2ω类。

1.3三种概率的关系――――贝叶斯公式()()(|)=()i i i p |P P p ωωωx x x (2-1-3)其中,()p x 是x 的概率密度函数(全概率密度),它等于所有可能的类概率密度函数乘以相应的先验概率之和。

()(|)()i i i p p P ωω==∑21x x因为()p x 对于所有的类都是一样的,可视为常数因子,它并不影响结果,不考虑。

故可采用下面的写法比较后验概率的大小:1122(|)()(|)()p P p P ωωωω><x x则有 12x ωω⎧∈⎨⎩ (2-1-4)1.4多类的情况① ,,...,12m ωωω表示样本x 所属的m 个类别。

② 先验概率()i P ω, i =1,2,…, m ③ 假设类条件概率密度函数(|)i p ωx ,i =1,2,…,m 已知,计算后验概率后,若:(|)i P ωx >(|)j P ωx ∀j ≠i则x ∈i ω类。

这样的决策可使分类错误率最小。

因此叫做基于最小错误率的贝叶斯决策。

R 1和R 3的分界点是11(/)()p P ωωx =33(/)()p P ωωx 的交点。

R 2和R 3的分界点是22(/)()p P ωωx =33(/)()p P ωωx 的交点。

图2-1-1图2-1-22.实验过程(a)每个模式类各生成50个随机样本,并在二维图上画出这些样本。

m1 =Columns 1 through 50.5426 -0.0190 1.3513 -1.2277 -0.92662.98403.4340 1.9042 3.9946 3.1342……Columns 46 through 501.6222 1.1615 1.3431 -0.2037 -0.15631.1755 3.3840 0.5198 3.6479 3.4207m2 =Columns 1 through 92.9272 2.0057 2.2526 2.96923.98842.4034 1.1650 4.2931 0.7725 2.0623……Columns 46 through 504.4548 2.4898 2.9933 2.4745 3.71772.2946 2.4581 0.7505 0.9102 0.4889-3-2-1012345-3-2-10123456xy2个模式的样本分布图1 两个模式的样本二维分布图(b )用模式的第一个特征分量作为分类特征,对(a )中的100个样本进行分类,统计正确分类的百分比,并在2维图上用不同的颜色画出正确分类和错误的样本。

图2 用模式的第一个特征分量作为分类特征-3-2-1012345xy黑色代表正确分类,红色代表错误分类统计得正确分类j=79,正确分类百分比为79%。

(c )用模式的第二个特征分量作为分类特征,对(a )中的100个样本进行分类,统计正确分类的百分比,并在2维图上用不同的颜色画出正确分类和错误的样本。

-3-2-10123456xy黑色代表正确分类,红色代表错误分类图3 用模式的第二个特征分量作为分类特征统计得正确分类j=75,正确分类百分比为75%。

(d )用模式的两个特征分量作为分类特征,对(a )中的100个样本进行分类,统计正确分类的百分比,并在2维图上用不同的颜色画出正确分类和错误的样本。

-3-2-1012345-3-2-10123456xy黑色代表正确分类,红色代表错误分类图3 用模式的两个特征分量作为分类特征统计得正确分类j=88,正确分类百分比为88% (e )对上述实验结果进行分析说明由上述实验看见,选用两个特征分量作为分类特征,得到的正确率比用一个特征分量作为分类特征的正确率要高。

因此在运用贝叶斯分类器进行分类时,尽可能的选用多个分类特征进行同时判别。

2. 附录(a )m1=mvnrnd([1 3],[1.5 0;0 1.5],50),m2=mvnrnd([3 1],[1 0.5;0.5 2],50);%产生样本 m1=m1',m2=m2';plot(m1([1],:),m1([2],:),'.y',m2([1],:),m2([2],:),'.m'); xlabel('x'),ylabel('y'); title('2个模式的样本分布');(b)j=0,k=0;for i=1:1:50p1=((3*pi)^(-1/2))*exp((-1/2)*(((m1(1,i)-1)^(2))/1.5));%模式类1的第一维特征分量概率分布p2=((2*pi)^(-1/2))*exp((-1/2)*(((m1(1,i)-3)^(2))/1));%模式类2的第一维特征分量概率分布if p1>p2plot(m1(1,i),m1(2,i),'.k'),hold on;j=j+1;elseplot(m1(1,i),m1(2,i),'.r'),hold on;k=k+1;endendfor i=1:1:50p1=((3*pi)^(-1/2))*exp((-1/2)*(((m2(1,i)-1)^(2))/1.5));%模式类1的第一维特征分量概率分布p2=((2*pi)^(-1/2))*exp((-1/2)*(((m2(1,i)-3)^(2))/1));%模式类2的第一维特征分量概率分布if p1<p2plot(m2(1,i),m2(2,i),'.k'),hold on;j=j+1;elseplot(m2(1,i),m2(2,i),'.r'),hold on;k=k+1;endendxlabel('x'),ylabel('y');title('黑色代表正确分类,红色代表错误分类');disp(j/100);(c)j=0,k=0;for i=1:1:50p1=((2*pi)^(-1/2))*exp((-1/2)*(((m1(2,i)-3)^(2))/1));%模式类1的第二维特征分量概率分布p2=((4*pi)^(-1/2))*exp((-1/2)*(((m1(2,i)-1)^(2))/2));%模式类2的第二维特征分量概率分布if p1>p2plot(m1(1,i),m1(2,i),'.k'),hold on;j=j+1; %计算正确的分类样本总数elseplot(m1(1,i),m1(2,i),'.r'),hold on;k=k+1; %计算错误的分类样本总数endendfor i=1:1:50p1=((2*pi)^(-1/2))*exp((-1/2)*(((m2(2,i)-3)^(2))/1));%模式类1的第二维特征分量概率分布p2=((4*pi)^(-1/2))*exp((-1/2)*(((m2(2,i)-1)^(2))/2));%模式类2的第二维特征分量概率分布if p1<p2plot(m2(1,i),m2(2,i),'.k'),hold on;j=j+1;elseplot(m2(1,i),m2(2,i),'.r'),hold on;k=k+1;endendxlabel('x'),ylabel('y');title('黑色代表正确分类,红色代表错误分类');(d)j=0,k=0;m1=(m1)';m2=(m2)';for i=1:1:50p1=generating2(m1([i],:),[1 3],[1.5 0;0 1]);%模式类1的第二维特征分量概率分布p2=generating2(m1([i],:),[3 1],[1 0.5;0.5 2]);%模式类2的第二维特征分量概率分布if p1>p2plot(m1(i,1),m1(i,2),'.k'),hold on;j=j+1; %计算正确的分类样本总数elseplot(m1(i,1),m1(i,2),'.r'),hold on;k=k+1; %计算错误的分类样本总数end深圳大学研究生课程“模式识别理论与方法”实验指导书(2nd Endition 裴继红编)endfor i=1:1:50p1=generating2(m2([i],:),[1 3],[1.5 0;0 1]);%模式类1的第二维特征分量概率分布, generating2的定义参见实验一p2=generating2(m2([i],:),[3 1],[1 0.5;0.5 2]);%模式类2的第二维特征分量概率分布if p1<p2plot(m2(i,1),m2(i,2),'.k'),hold on;j=j+1;elseplot(m2(i,1),m2(i,2),'.r'),hold on;k=k+1;endendxlabel('x'),ylabel('y');title('黑色代表正确分类,红色代表错误分类');11。

相关文档
最新文档