第七讲 统计分类(二)--贝叶斯分类器h
第7章-贝叶斯分类算法讲课教案

练一练
用朴素贝叶斯网络对以下保险销售客户数据进行分析:
(1)求条件概率P(性别/是),P(婚姻状态/是),P( 是否有房/是), P(性别/否),P (婚姻状态/否),P( 是否有房/否)。
(2)根据(1)中的条件概率,使用朴素贝叶斯方法预测一客户(性别=女,婚姻状态=已 婚,是否有房=无房)是否会购买此保险。
P(ak | Ci ) g(ak , Ci , Ci )
1 2 Ci
(ak Ci )
e 2
2 Ci
【例7.3】对于第6章表6.1的训练样本集S,所有属性为离散属性。 n=2(描述属性个数),特征向量为A={a1,a2},描述属性为A1和 A2(假设A1和A2之间相互独立)。类别属性为C,m=2(类别个 数),C1=False,C2=True。对应的贝叶斯网如图7.7所示。求 P(A1|C)和P(A2|C)。
P(C1)=P(购买计算机='是')=9/14=0.64 P(C2)=P(购买计算机='否')=5/14=0.36
(3)计算后验概率P(ai|Ci),先计算P(年龄='≤30'|购买计算机 ='是')和P(年龄='≤30'|购买计算机='否')。将训练数据集S按 “购买计算机”和“年龄”属性排序后的统计结果如表7.4所 示。则:
n
P(a1, a2 ,...,an ) P(ai | parent( Ai )) i1
其中,parent(Ai)表示Ai的父结点,P(ai|parent(Ai))对应条件概率表中关于Ai 结点的一个入口。若Ai没有父结点,则P(ai|parent(Ai))等于P(ai)。
【例7.2】有X、Y和Z三个二元随机变量(取值只有0、1两种情况),假设X、Y之 间是独立的,它们对应的条件概率表如表7.1所示。若已知条件概率P(X=1)=0.3, P(Y=1)=0.6,P(Z=1)=0.7,求P(X=0,Y=0|Z=0)的后验概率。
分类方法

2
分类方法的类型
从使用的主要技术上看,可以把分类方法归结为 四种类型:
基于距离的分类方法 决策树分类方法 贝叶斯分类方法 规则归纳方法。
3
分类问题的描述
2.使用模型进行分类
首先评估模型(分类法)的预测准确率。 如果认为模型的准确率可以接受,就可以用它对类标号 未知的数据元组或对象进行分类。
5
四 分类方法
分类的基本概念与步骤 基于距离的分类算法 决策树分类方法 贝叶斯分类 规则归纳
6
基于距离的分类算法的思路
定义4 定义4-2 给定一个数据库 D={t1,t2,…,tn}和一 , 组类C={C1,…,Cm}。假定每个元组包括一些数 , 值型的属性值: 值型的属性值:ti={ti1,ti2,…,tik},每个类也包 , 含数值性属性值: 含数值性属性值:Cj={Cj1,Cj2,…,Cjk},则分 , 类问题是要分配每个t 类问题是要分配每个ti到满足如下条件的类Cj:
P( X | C i ) = ∏ P( xk | C i )
k =1 n
14
朴素贝叶斯分类(续)
可以由训练样本估值。 其中概率P(x1|Ci),P(x2|Ci),……,P(xn|Ci)可以由训练样本估值。 ,
是离散属性, 如果Ak是离散属性,则P(xk|Ci)=sik|si,其中sik是在属性Ak上具有值xk的 的训练样本数, 类Ci的训练样本数,而si是Ci中的训练样本数。 中的训练样本数。 如果Ak是连续值属性,则通常假定该属性服从高斯分布。因而, 是连续值属性,则通常假定该属性服从高斯分布。因而,
机器学习:贝叶斯分类器(二)——高斯朴素贝叶斯分类器代码实现

机器学习:贝叶斯分类器(⼆)——⾼斯朴素贝叶斯分类器代码实现⼀⾼斯朴素贝叶斯分类器代码实现⽹上搜索不调⽤sklearn实现的朴素贝叶斯分类器基本很少,即使有也是结合⽂本分类的多项式或伯努利类型,因此⾃⼰写了⼀遍能直接封装的⾼斯类型NB分类器,当然与真正的源码相⽐少了很多属性和⽅法,有兴趣的可以⾃⼰添加。
代码如下(有详细注释):class NaiveBayes():'''⾼斯朴素贝叶斯分类器'''def __init__(self):self._X_train = Noneself._y_train = Noneself._classes = Noneself._priorlist = Noneself._meanmat = Noneself._varmat = Nonedef fit(self, X_train, y_train):self._X_train = X_trainself._y_train = y_trainself._classes = np.unique(self._y_train) # 得到各个类别priorlist = []meanmat0 = np.array([[0, 0, 0, 0]])varmat0 = np.array([[0, 0, 0, 0]])for i, c in enumerate(self._classes):# 计算每个种类的平均值,⽅差,先验概率X_Index_c = self._X_train[np.where(self._y_train == c)] # 属于某个类别的样本组成的“矩阵”priorlist.append(X_Index_c.shape[0] / self._X_train.shape[0]) # 计算类别的先验概率X_index_c_mean = np.mean(X_Index_c, axis=0, keepdims=True) # 计算该类别下每个特征的均值,结果保持⼆维状态[[3 4 6 2 1]]X_index_c_var = np.var(X_Index_c, axis=0, keepdims=True) # ⽅差meanmat0 = np.append(meanmat0, X_index_c_mean, axis=0) # 各个类别下的特征均值矩阵罗成新的矩阵,每⾏代表⼀个类别。
朴素贝叶斯分类

朴素贝叶斯分类贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。
而朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法。
一:贝叶斯原理朴素贝叶斯分类算法是一个典型的统计学习方法,主要的理论基础就是贝叶斯公式。
贝叶斯公式定义如下所示:先验概率:通过经验来判断事情发生的概率。
后验概率:后验概率就是发生结果之后,推测原因的概率。
条件概率:事件 A 在另外一个事件 B 已经发生条件下的发生概率,表示为 P(A|B),读作“在 B 发生的条件下 A 发生的概率”。
P(A|B)表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。
其基本求解公式为:P(AB)/P(B)。
但是在有些情况下,我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出,但是我们更想要知道P(B|A)。
例如(通信接收机检测判决)将A,B,C 三个字母之一输入信道,输出为原字母的概率为α,而输出为其它一字母的概率都是(1-α)/2。
今将字母串AAAA,BBBB,CCCC 之一输入信道,输入AAAA,BBBB,CCCC 的概率分别为p1, p2, p3 (p1 +p2+p3=1),已知输出为ABCA,问输入的是AAAA 的概率是多少?(设信道传输每个字母的工作是相互独立的。
)在这个例子中,我们知道了结果,但是我们想要知道输入的概率,直接计算是非常困难的,但是通过贝叶斯公式就显得十分简单了。
换句话说,就是我们知道原因,推导结果是比较容易的,但是当我们知道结果,要反过来推导原因是十分困难的。
而贝叶斯公式就为我们知道结果后推导原因提供了一个捷径。
二:朴素贝叶斯分类在说完了贝叶斯原理之后,现在就来说朴素贝叶斯分类。
朴素贝叶斯分类之所以朴素,就是因为我们做了一个简单的假设,即类中特定特征的存在与任何其他特征的存在无关,这意味着每个特征彼此独立。
因此对实际情况有所约束,如果属性之间存在关联,分类准确率会降低。
朴素贝叶斯分类课件

缺点:对异常值和离散特征处理不佳。
01
02
03
04
01
多项式分布假设:朴素贝叶斯分类器假设特征符合多项式分布。
02
数学模型:基于多项式分布的朴素贝叶斯分类器使用以下数学模型进行分类
03
特征概率密度函数为多项式分布。
通过贝叶斯定理计算样本属于每个类别的概率。
缺点:对连续数值特征处理不佳,参数估计困难。
特征编码
03
对特征进行标准化、归一化等预处理,以提高分类器的性能。
特征预处理
根据任务需求和数据特性,调整朴素贝叶斯分类器的超参数,如平滑参数、先验概率等。
通过交叉验证来评估不同超参数组合下的分类器性能,以选择最佳参数组合。
调整分类器参数
使用交叉验证
利用多核CPU或GPU进行并行计算,以提高分类器的训练速度。
对噪声数据敏感
如果数据集中存在噪声或者异常值,朴素贝叶斯分类器的性能可能会受到影响。
对连续特征的处理
朴素贝叶斯分类器通常只能处理离散特征,对于连续特征需要进行离散化或者采用其他方法进行处理。
05
CHAPTER
朴素贝叶斯分类器的应用场景与实例
朴素贝叶斯分类器在文本分类任务中表现出色,例如垃圾邮件、情感分析、新闻分类等。
01
02
高斯朴素贝叶斯假定特征符合高斯分布(正态分布),而多项式朴素贝叶斯则假定特征服从多项式分布。
朴素贝叶斯算法可以分为两类:高斯朴素贝叶斯和多项式朴素贝叶斯。
它是一种基于概率的分类方法,对于缺失数据和异常值具有较好的鲁棒性。
朴素贝叶斯算法在文本分类、情感分析、图像分类等自然语言处理和计算机视觉领域都有广泛的应用。
定义
03
CHAPTER
贝叶斯分类

详解贝叶斯分类器1.贝叶斯决策论贝叶斯分类器是一类分类算法的总称,贝叶斯定理是这类算法的核心,因此统称为贝叶斯分类。
贝叶斯决策论通过相关概率已知的情况下利用误判损失来选择最优的类别分类。
“风险”(误判损失)= 原本为cj的样本误分类成ci产生的期望损失,期望损失可通过下式计算:为了最小化总体风险,只需在每个样本上选择能够使条件风险R(c|x)最小的类别标记。
最小化分类错误率的贝叶斯最优分类器为:即对每个样本x,选择能使后验概率P(c|x)最大的类别标记。
利用贝叶斯判定准则来最小化决策风险,首先要获得后验概率P(c|x),机器学习要实现的是基于有限的训练样本集尽可能准确的估计出后验概率P(c|x)。
主要有两种模型:一是“判别式模型”:通过直接建模P(c|x)来预测,其中决策树,BP神经网络,支持向量机都属于判别式模型。
另外一种是“生成式模型”:通过对联合概率模型P(x,c)进行建模,然后再获得P(c|x)。
对于生成模型来说:基于贝叶斯定理,可写为下式(1)通俗的理解:P(c)是类“先验”概率,P(x|c)是样本x相对于类标记c的类条件概率,或称似然。
p(x)是用于归一化的“证据”因子,对于给定样本x,证据因子p(x)与类标记无关。
于是,估计p(c|x)的问题变为基于训练数据来估计p(c)和p(x|c),对于条件概率p(x|c)来说,它涉及x所有属性的联合概率。
2.极大似然估计假设p(x|c))具有确定的形式并且被参数向量唯一确定,则我们的任务是利用训练集估计参数θc,将P(x|c)记为P(x|θc)。
令Dc表示训练集D第c类样本的集合,假设样本独立同分布,则参数θc对于数据集Dc的似然是对进行极大似然估计,就是去寻找能最大化P(Dc|θc)的参数值。
直观上看,极大似然估计是试图在θc所有可能的取值中,找到一个能使数据出现的“可能性”最大的值。
上式的连乘操作易造成下溢,通常使用对数似然:此时参数θc的极大似然估计为在连续属性情形下,假设概率密度函数,则参数和的极大似然估计为:也就是说,通过极大似然法得到的正态分布均值就是样本均值,方差就是的均值,在离散情况下,也可通过类似的方式估计类条件概率。
贝叶斯的原理和应用

贝叶斯的原理和应用1. 贝叶斯原理介绍贝叶斯原理是基于概率论的一种推理方法,它被广泛地应用于统计学、人工智能和机器学习等领域。
其核心思想是通过已有的先验知识和新的观察数据来更新我们对于某个事件的信念。
2. 贝叶斯公式贝叶斯公式是贝叶斯原理的数学表达方式,它可以用来计算在观察到一些新的证据后,更新对于某个事件的概率。
贝叶斯公式的表达如下:P(A|B) = (P(B|A) * P(A)) / P(B)其中,P(A|B)表示在观察到事件B之后,事件A发生的概率;P(B|A)表示在事件A发生的前提下,事件B发生的概率;P(A)和P(B)分别是事件A和事件B的先验概率。
3. 贝叶斯分类器贝叶斯分类器是基于贝叶斯原理的一种分类算法。
它利用已有的训练数据来估计不同特征值条件下的类别概率,然后根据贝叶斯公式计算得到新样本属于不同类别的概率,从而进行分类。
贝叶斯分类器的主要步骤包括:•学习阶段:通过已有的训练数据计算得到类别的先验概率和特征条件概率。
•预测阶段:对于给定的新样本,计算得到其属于不同类别的概率,并选择概率最大的类别作为分类结果。
贝叶斯分类器的优点在于对于数据集的要求较低,并且能够处理高维特征数据。
但是,贝叶斯分类器的缺点是假设特征之间相互独立,这在实际应用中可能不符合实际情况。
4. 贝叶斯网络贝叶斯网络是一种用有向无环图来表示变量之间条件依赖关系的概率图模型。
它可以用来描述变量之间的因果关系,并通过贝叶斯推理来进行推断。
贝叶斯网络的节点表示随机变量,边表示变量之间的条件概率关系。
通过学习已有的数据,可以构建贝叶斯网络模型,然后利用贝叶斯推理来计算给定一些观察值的情况下,其他变量的概率分布。
贝叶斯网络在人工智能、决策分析和医学诊断等领域有广泛的应用。
它可以通过概率推断来进行决策支持,帮助人们进行风险评估和决策分析。
5. 贝叶斯优化贝叶斯优化是一种用来进行参数优化的方法。
在参数优化问题中,我们需要找到使得某个性能指标最好的参数组合。
机器学习实验2-贝叶斯分类器设计

一、实验意义及目的1、掌握贝叶斯判别定理2、能利用matlab编程实现贝叶斯分类器设计3、熟悉基于matlab的算法处理函数,并能够利用算法解决简单问题二、算法原理贝叶斯定理是关于随机事件A和B的条件概率(或边缘概率)的一则定理。
其中P(A|B)是在B发生的情况下A发生的可能性公式为:贝叶斯法则:当分析样本大到接近总体数时,样本中事件发生的概率将接近于总体中事件发生的概率。
内容:(1)两类w服从正态分布,设计基于最小错误率的贝叶斯分类器,对数据进行分类。
(2)使用matlab进行Bayes判别的相关函数,实现上述要求。
(3)针对(1)中的数据,自由给出损失表,并对数据实现基于最小风险的贝叶斯分类。
三、实验内容(1)尝两类w服从正态分布,设计基于最小错误率的贝叶斯分类器,对数据进行分类。
代码清单:clc;clear all;meas=[0 0;2 0;2 2;0 2;4 4;6 4;6 6;4 6];%8x2矩阵这里一行一行2个特征[N n]=size(meas);species={'one';'one';'one';'one';'two';'two';'two';'two'};%这里也对应一行一行的sta=tabulate(species)[c k]=size(sta);priorp=zeros(c,1);for i=1:cpriorp(i)=cell2mat(sta(i,k))/100;%计算概率end%cell2mat(sta(:,2:3)) 提取数组中的数据本来sta数组中数据为矩阵不能直接用%估算类条件概率参数cpmean=zeros(c,n);cpcov=zeros(n,n,c);for i=1:ccpmean(i,:)=mean(meas(strmatch(char(sta(i,1)),species,'exact'),:));%exact精确查找cpmean放的每一类的均值点几类就几行cpcov(:,:,i)=cov(meas(strmatch(char(sta(i,1)),species,'exact'),:))*(N*priorp(i)-1)/(N*priorp(i));end%求(3 1)的后验概率x=[3 1];postp=zeros(c,1);for i=1:cpostp(i)=priorp(i)*exp(-(x-cpmean(i,:))*inv(cpcov(:,:,i))*(x-cpmean(i,:))'/2)/((2*pi)^(n/2)*det(cpcov(:,:,i)));endif postp(1)>postp(2)disp('第一类');elsedisp('第二类');end运行结果:(2)使用matlab进行Bayes判别的相关函数,实现上述要求。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
4、后验概率的获得:
后验概率是无法直接得到的,因此需要根据推理计 算,由已知的概率分布情况获得。
根据贝叶斯公式可得:
P( j x)
P( j ) p( x j )
P( j ) p(x j )
i 1
n
P( j ) p( x j ) p( x )
其中: p(x| ω j)为类ω j所确定的决策区域中,特征向量x出现 的概率密度,称为类条件概率密度,又称为似然函数。
Rai x 2 a ,ω P ω x ,i 1,, ,m
i j r j j 1
3. 从得到的m个条件风险中,选最小的。 即 若 Rak x min Rai x ,则采用决策 ak 。
i 1,, ,m 2
2、最小风险贝叶斯分类:
•最小风险贝叶斯判别规则:
Байду номын сангаас
p(x)为全概率密度,可由全概率公式计算得到。
以细胞识别为例:
细胞切片的显微图像经过一定的预处理后,抽取出d个特 征。每一细胞可用一个d维的特征向量x表示。希望根据x 的值分到正常类ω1或异常类ω2中去。 假定可以得到Pr(ω1)、Pr(ω2),[Pr(ω1)+ Pr (ω2) =1] ,和p(x|ω1)、p(x|ω2) 。 如果只有先验概率,那么合理的选择是把x分到Pr(ω1 )、 Pr(ω2)大的一类中去。一般由于Pr(ω1)>Pr(ω2), 这样就把所有的细胞分到了正常的一类。失去了意义。
t t r 2 r 1 t
2 r 2 1 r 1 t
r
2
2
r
1
1
R1
R2
• 要使Pr(e)是最小的,可从两个思路看: 1. 要使Pre Pre x px d x最小,使对每个x,Pr(e|x)都 要最小。所以取后验概率最大的。
2. 假如将分界面移到tt’点
p( x i ) p( x j )
ij=
P( j ) P( i )
则最大似然比贝叶斯分类的判别规则可以表达为: 若 Lij>θij,则x ∈ ωk ,i、j=1,2,….c,
为评估分类错误的风险,引入以下概念: •行动αi:表示把模式x判决为ωi类的一次动作。
•损失函数λij=λ(αi|ωj):表示模式x本来属于ωj类错 判为ωi所受损失
•条件平均风险(也叫条件期望损失):对未知x采取一 个判决行动αi(x)所冒的风险(或所付出的代价)
R i x E i j i j P j x , i 1,2,...,a.(a M )
若R k x min R i x , 则x k
i 1, 2 ,..., c
0, i j时 用0 1函数 : ( j j ) ij 1, i j时 R( i x) ( i j ) P( j x) ij P( j x) P( j x)
M j 1
• 对于实际问题,最小风险的贝叶斯决策可按如下步 骤进行:
1. 根据Pr(ωj),p(x|ωj),j=1,2,…,c,以及给出 的x,计算后验概率
Pr ωj x
c
p x ωj Prωj
px ωi Prωi
c i 1
,j 1,, ,c 2
2. 计算条件风险
统计学以数据为研究内容,但仅仅收集数 据,决不构成统计学研究的全部。
统计学是面对不确定情况寻求决策、制定 方法的一门科学
人力、财力、时间等的限制,只有部分或 少量数据,要推断所有数据的的特征 PR中的分类问题是根据识别对象特征的观 测值,将其分到相应的类别中去。
一、贝叶斯分类原理:
1、贝叶斯公式及其意义:
P( ABk ) P( Bk ) p( A Bk ) n P( Bk A) p( A) P( Bi ) p( A Bi )
i 1
P(Bk|A)是事件A发生时事件Bk发生的条件概率; P(Bk)是事件Bk发生的概率; p(A|Bk)是事件Bk发生时事件A发生的条件概率密度; p(A)是事件A发生的条件概率密度; •贝叶斯公式表达了两个相关事件在先后发生时的推理关系
i 1 j i j i M
1 P( i x) 后验概率 R( i x)最小,就相当于 ( i x)最大, P 这时便得到最小错误率 分类器。
2、最小风险贝叶斯分类:
例:已知正常细胞先验 概率为P (1 ) 0.9, 异常为P ( 2 ) 0.1, 从类条件概率密度分布 曲线上查的P ( x i ) 0.2, P( x i ) 0.4,
Prt e A B C
Prt e A B C D
∴ t应是错误率最小的分界点,相应的规则也是错误率最 小。
• 对于多类情况,最小错误率决策规则为:
若 或若
Pr ωi x max Pr ωj x ,则
j 1,, ,c 2
x ωi
Prωi px ωi max Prωj px ωj
• 如果有细胞的观测信息,那么可以改进决策的方法。为了 简单起见,假定 x 是一维的特征(如胞核的总光强度)。 p(x|ω1)和p(x|ω2)已知:
• 利用贝叶斯公式:
Pr ωi x
p x ωi Prωi
px ωi Prωi
2 i 1
• 得到的 Pr (ωi|x ) 称为状态(正常、异常)的后验概率。 上述的贝叶斯公式,通过观测到的x,把先验概率转换为后 验概率。
3、先验概率和后验概率:
•先验概率: 根据大量样本情况的统计,在整个特征空间中,任取 一个特征向量x,它属于类ωj 的概率为 P(ωj),也就是说, 在样本集中,属于类ωj 的样本数量于总样本数量的比值为 P(ωj)。我们称P(ωj)为先验概率。 显然,有: P(ω1)+P(ω2)+…… +P(ωc)=1 •后验概率: 当我们获得了某个样本的特征向量x,则在x条件下样 本属于类ωj的概率P(ωj|x)称为后验概率。 后验概率就是我们要做统计判别的依据。
P(1 x) P( x 1 ) P(1 ) 0.2 0.9 0.818 0.2 0.9 0.4 0.1
P( x
j 1
2
j
) P( j )
P( 2 x) 1 P(1 x) 0.182,因为P(1 x) P( 2 x), x 1属正常细胞。 因为P(1 ) P( 2 ), 所以先验概率起很大作 . 用
r 1 r 2
当 P ω x P ω x
• 令t是两类的分界面,当x是一维时,即x轴上的一点。
Pre
P ω x px d x P ω x px d x px ω P ω d x px ω P ω d x P ω px ω d x P ω px ω d x Prω2 ε 2 Prω1 ε1
统计模式识别(二)
贝叶斯分类器
内容
贝叶斯分类的基本原理
最小错误率贝叶斯分类 最小风险贝叶斯分类 最大似然比贝叶斯分类 正态分布中的贝叶斯分类
回顾:
线性分类器设计思路 梯度下降法 感知器法
哈哈统计
有一个从没带过小孩的统计学家,因为妻子 出门勉强答应照看三个年幼好动的孩子。妻子回 家时,他交出一张纸条,写的是: “擦眼泪11次;系鞋带15次;给每个孩子吹 玩具气球各5次,累计15次;每个气球的平均寿命 10秒钟;警告孩子不要横穿马路26次;孩子坚持 要穿马路26次;我还要再过这样的星期六0次”。 统计学真的这样呆板吗?仅仅收集数据,整理 分析,累加平均…
11 0, 12 6, 21 1, 22 0
由上例中计算出的后验 概率:P (1 x) 0.818, P ( 2 x) 0.182 条件风险:R (1 x) 1 j P ( j x) 12 P( 2 x) 1.092
j 1 2
R ( 2 x) 21 P (1 x) 0.818 因为R(1 x) R ( 2 x) x 异常细胞,因决策1类风险大。 因12=6较大,决策损失起决定 作用。
j 1,, ,c 2
则
x ωi
x ωi
2、最小风险贝叶斯分类:
最小错误率贝叶斯分类只考虑分类错误的概率最小,但 是,每次分类错误带来的损失是不一样的,例如: •要判断某人是正常(ω1)还是肺病患者(ω2),于是在判断中 可能出现以下情况: •第一类,判对(正常→正常) λ11 ;第二类,判错(正 常→肺病) λ21 ; •第三类,判对(肺病→肺病) λ22;第四类,判错(肺病 →正常) λ12 。
3、最大似然比贝叶斯分类:
在最小错误率贝叶斯分类中, P(ωk|x)=max{ P(ωj|x) },则 x ∈ ωk
j=1,2,……c
则有: P(ωk|x)> P(ωj|x),j=1,2,….c,j≠k; 即
P( k ) p( x k ) p( x )
>
P( j ) p( x j ) p( x )
,j=1,2,….c,j≠k;
P(k ) p(x k ) > P( j ) p(x j ) ,j=1,2,….c,j≠k; p( x k ) P ( j ) > ,j=1,2,….c,j≠k; p( x j ) P ( k )
3、最大似然比贝叶斯分类:
定义:
似然比 L ij= 判别阈值
第二类和第四类属于分类错误。 •显然,第四类错误带来的损失大于第二类错误带来的损失。
地震预报
预报为有震,要作准备,要付出代价,但地震没有发生; 预报为无震,但地震发生了,要遭受损失。