第6章_贝叶斯学习与EM算法

合集下载

EM算法简介精品PPT课件

EM算法简介精品PPT课件
在EM算法正式提出以来,人们对EM算法的性质有 更加深入的研究.并且在此基础上,提出了很多改进 的算法.
在数理统计,数据挖掘,机器学习以及模式识别 等领域有广泛的应用.
3
问题提出
给定一些观察数据y,假设y符合如下的高斯分布
K
p(y) kN(y|k,k). k1
需要求出混合高斯分布的三组参数 k,k,k

||i1 i || ||Q (i 1| i)Q (i|. i)||
重复上面两个步骤直至

充分小时,停止.
11
EM例子
• 有公式(1)(3)以及贝叶斯公式可得
p(Z|Y,,,)

NK
[kN(yn|k,k)z]nk
n1 k1
其中N表示观察样本数.
• 公式中 znk 是未知的,需要求出它的期望
12
推论L 1(.M(假*设)) 存L在(一)些,

且Q (M ()|)Q (,|那么),有
a) k(x|y ,M ( ) )k(x|y , )
b)
c)
几乎处处成立.
17
GEM算法性质
推论2.对于一 , ,L ()L ()

,其中

那么对于GEM算M 法有().
(p), p0,1,2,...
EM的M-step可能比较复杂
• M-step
定义映M射()
Q (M ( 满)|) Q (|)
足,其中 是参数空 . 间 ,
i1 M(

16
GEM算法性质
引理1.
对于任意 (',一 ) 对 ,其 参 中 是 数参数空间,
H ('|)H (|),
4
问题简化

EM算法

EM算法

EM算法EM算法--应用到三个模型:高斯混合模型,混合朴素贝叶斯模型,因子分析模型判别模型求的是条件概率p(y|x),生成模型求的是联合概率p(x,y).即= p(x|y) ? p(y)常见的判别模型有线性回归、对数回归、线性判别分析、支持向量机、boosting、条件随机场、神经网络等。

常见的生产模型有隐马尔科夫模型、朴素贝叶斯模型、高斯混合模型、LDA、RestrictedBoltzmann Machine等。

所以这里说的高斯混合模型,朴素贝叶斯模型都是求p(x,y)联合概率的。

(下面推导会见原因)套路小结:凡是生产模型,目的都是求出联合概率表达式,然后对联合概率表达式里的各个参数再进行估计,求出其表达式。

下面的EM算法,GMM等三个模型都是做这同一件事:设法求出联合概率,然后对出现的参数进行估计。

一、EM算法:作用是进行参数估计。

应用:(因为是无监督,所以一般应用在聚类上,也用在HMM参数估计上)所以凡是有EM算法的,一定是无监督学习.因为EM是对参数聚集给定训练样本是高斯混合模型,混合朴素贝叶斯模型,因子分析模型"> 样例独立,我们想要知道每个样例隐含的类别z,使是p(x,z)最大,(即如果将样本x(i)看作观察值,参数估计问题,)故p(x,z)最大似然估计是:高斯混合模型,混合朴素贝叶斯模型,因子分析模型">所以可见用到EM算法的模型(高斯混合模型,朴素贝叶斯模型)都是求p(x,y)联合概率,为生成模型。

对上面公式,直接求θ一般比较困难,因为有隐藏变量z存在,但是一般确定了z后,求解就容易了。

EM是一种解决存在隐含变量优化问题的有效方法。

竟然不能直接最大化?(θ),我们可建立?的下界(E步),再优化下界(M步),见下图第三步,取的就是下界解释上式:对于每一个样例i,让Qi表示该样例隐含变量z的某种分布,Qi满足的条件是(如果z 是连续性的,那么Qi是概率密度函数(因子分析模型就是如此),需要将求和符号换成积分符号即:高斯混合模型,混合朴素贝叶斯模型,因子分析模型">因子分析模型是如此,这个会用在EM算法的M步求。

EM算法-完整推导

EM算法-完整推导

EM算法-完整推导前篇已经对EM过程,举了扔硬币和⾼斯分布等案例来直观认识了, ⽬标是参数估计, 分为 E-step 和 M-step, 不断循环, 直到收敛则求出了近似的估计参数, 不多说了, 本篇不说栗⼦, 直接来推导⼀波.Jensen 不等式在满⾜:⼀个 concave 函数, 即形状为 "⋂" 的函数f(x)λj≥0∑jλj=1 类似于随机变量的分布的前提条件下, 则有不等式:f(∑jλj x j)≥∑jλj f(x j)恒成⽴, 则该不等式称为 Jensen 不等式. 是有些不太直观哦, (sum 是最后哦, 有时候会犯晕).为了更直观⼀点, 考虑λ只有两个值, 即:λ1=1−tλ2=1其中,0⩽"\bigcap" 函数 f(x) 中有⼀段区间 [a, b], 构造出该范围内的⼀个点x_t当, x_t = (1+t)a + tb则有:f((1-t)a +tb) \ge (1-t)f(a) + tf(b)这⾥跟之前写过的 convex 其实是⼀模⼀样的, 要是还不直观, 就⾃个画个草图就秒懂了.左边是函数的值, 右边连接两个端点a,b的函数值的直线, 因为是 "\bigcap 的", 故函数值必然在直线的上⽅.⽤数学归纳法, 当 M > 2:f(\sum \limits _{j=1}^M \lambda_j x_j) \ge \sum \limits _{j=1}^M \lambda_j f(x_j)EM算法推导假设给定⼀个包含 n 个独⽴的训练样本的数据集, D = \{ x_1, x_2, x_3...x_n) \}希望拟合⼀个概率模型p(x, z) , 其对数似然函数(log likelihood)为:为啥要 log, 乘法变加法, 不太想说了, ⾃⼰都重复吐⾎了似然, 不加log 前是: l(\theta) = \prod \limits _{i=1}^n p(x; \theta)的嘛, 样本的联合概率最⼤l(\theta) = \sum \limits _{i=1}^n log \ p(x; \theta)= \sum \limits _{i=1}^n log \ \sum \limits _{z} p(x, z; \theta)理解\sum \limits _{z} p(x, z; \theta)给定\theta的前提下, 关于 x, z 的联合概率跟之前扔硬币是⼀样的, 对于每个独⽴数据的产⽣, 其实还有⼀个隐含的因素 z (扔硬币中,到底这次试验是来⾃于硬币A 还是硬币B每个Z因素, 影响着 p(x,z) 的联合概率分布. 考虑所有的 z, 则是全概率了呀.对于p(x; \theta)直接通过 x 来观测\theta⽐较难 (扔硬币中, 没有上帝视⾓, 不知道扔结果是哪个硬币产⽣的)z^{(i)}是⼀个隐变量(latent), 如果能观测到z^{(i)}则参数预测会容易很多, EM算法就是来解决这个问题的EM 算法呢, 分为两个步骤:在 E 步中, 构建l(\theta)的下界函数 (给定\theta来找 z)在 M 步中, 最⼤化这个下界函数不太直观, 就回顾上篇扔硬币的栗⼦, 这⾥的 z 就是那个来⾃哪⾥A 还是 B 的概率(每次试验)设Q_i为关于 z 的概率分布, 即\sum \limits _{z} Q_i(z) = 1 (z 如是连续变量则\sum \rightarrow \int_z) ,则对于上⾯的对数似然函数:= \sum \limits _{i=1}^n log \ \sum \limits _{z} p(x_i, z_i; \theta) \ (1)对 p 的部分, 同时乘上和除以Q_i(z_i)不改变等式 , 这种技巧, 中学的 "配平⽅或数列裂项求和" ⼀样滴= \sum \limits _i log \sum \limits _{z_i} Q_i(z_i) \frac {p(x_i, z_i; \theta)}{Q_i(z_i) } \ (2)log 函数是 concave 的, 联想 jensen不等式f(\sum \limits _j \lambda_j x_j) \ge \sum \limits _j \lambda_j f(x_j)即 log 对于与 f(); \sum \limits _{z_i} Q_i(z_i) 对应于 \sum \limits _j \lambda_j ; 最后⼀项对x_j\ge \sum \limits_{i} \sum \limits_{z_i}Q_i(z_i) \ log \frac {p(x_i, z_i; \theta)}{Q_i(z_i) } \ (3)就类似与, 把⼀个, 函数⾥⾯的参数, 提取到函数外⾯来. 如还是不理解, 回看之前写的 convex 篇什么时候会取到等于?即当\frac {p(x_i, z_i; \theta)}{Q_i(z_i) } = c是个常数的时候, (2) 和 (3) 是相等的.即p(x_i, z_i; \theta) = c \ * Q_i(z_i)在\theta给定下, 关于 x, z 的联合概率分布与隐变量 z 的分布是⼀个线性关系因为\sum \limits_{z_i} Q_i(z_i) = 1, 如果将Q_i(z_i)认为是给定x_i 和 z_i的后验概率分布, 这样就得到了该似然函数的⼀个下界,根据全概率(后验) 与贝叶斯公式:Q_i(x_i) = \frac {p(x_i, z_i; \theta)}{\sum \limits _{z_i} p(x_i, z_i; \theta)}=\frac {p(x_i, z_i; \theta)}{p(x; \theta)}=p(z_i|x_i, \theta)相当于求给定\theta 和 x_i的情况下, 求 z_i 的条件概率, 果然, 深刻理解贝叶斯公式显得多么重要呀再回顾⼀波贝叶斯公式:设A1,A2,A3..构成完备事件组, 则对任意⼀事件B有:P(A_i|B) = \frac {P(A_i)P(B|A_i)}{\sum \limits _{i=1}^n P(A_i)P(B|A_i)}同上述, 只要当我们取Q_i(z_i)的值为给定\theta 和 x_i的后验概率分布的时候, 就能保证:\frac {p(x_i, z_i; \theta)}{Q_i(z_i) }的值是⼀个常数 (反过来推的), 既然是个常数, 也就**前⾯ (3) 的地⽅可以取等号啦, 即: **\sum \limits _{i=1}^n log \ \sum \limits _{z} p(x_i, z_i; \theta) = \sum \limits_{i} \sum \limits_{z_i}Q_i(z_i) \ log \frac {p(x_i, z_i; \theta)}{Q_i(z_i) }这样⼀来, 相当于在 E 步得到了似然函数的⼀个下界, 然后在 M 步, 求解(3) 最⼤值时候的参数\theta . 然后重复以上的 E, M 步骤:E-步: For each i:Q_i(z_i) = p(z_i | x_i; \theta)M-步, 更新\theta:\theta = arg \ max _\theta \sum \limits_{i} \sum \limits_{z_i}Q_i(z_i) \ log \frac {p(x_i, z_i; \theta)}{Q_i(z_i) }....循环直到收敛, 则估计出了参数\theta但, 万⼀不收敛呢?, so, 必须证明⼀波, EM算法是收敛的哦证明EM算法会收敛假设\theta^{(t)} 和 \theta^{(t+1)}为EM算法的连续两个步骤的参数值, 欲证l (\theta)收敛, 只需证:l(\theta^{(t)}) \leq l(\theta^{(t+1)})即可EM算法使得似然函数的值单调递增即可根据前⾯关于⽤ jensen不等式的取等条件, 推导出, 取得Q_i(z_i)^{(t)}的⽅式是:Q_i ^{(t)} (z_i) = p(z_i | x_i; \theta ^{(t)})此条件下, 使得jensen不等式取等即:l(\theta^{(t)}) = \sum \limits_{i} \sum \limits_{z_i}Q_i(z_i) \ log \frac {p(x_i, z_i; \theta ^t)}{Q_i(z_i) }⽽参数\theta^{(t+1)}的取值⽅式, 是使得上⾯的这个等式的值最⼤, 则必然l(\theta^{(t+1)}) \ge l(\theta^{(t)})展开⼀波:l(\theta^{(t+1)}) \ge \sum \limits_{i} \sum \limits_{z_i}Q_i^t(z_i) \ log \frac {p(x_i, z_i; \theta ^{(t+1)})}{Q_i^t(z_i) } \ (4)\ge \sum \limits_{i} \sum \limits_{z_i}Q_i^t(z_i) \ log \frac {p(x_i, z_i; \theta^t)}{Q_i^t(z_i) }\ (5)=l(\theta^{(t)}) \ (6)(4) 源于不等式的性质, 必然成⽴嘛(5) 就是取最⼤值的⼀个过程必然成⽴(6) 取相等的⽅式去是应⽤了 Jensen不等式即证明了l(\theta^{(t)}) \leq l(\theta^{(t+1)}) , 即EM算法是收敛的呀.⼩结⾸先是要理解,参数估计的是在⼲嘛, 需要回顾统计学的基础知识, 或理解上篇扔硬币的栗⼦核⼼, ⽤到了⼀个jensen 不等式, 需要回顾凸函数的⼀些性质来理解⼀波推导的⽅式呢, 依旧是极⼤似然估计, 带log (乘法边加法)推导核⼼技巧是全概率与贝叶斯公式, 真正理解太重要, 如LDA, 逻辑回归, 贝叶斯...这些算法都⽤到了.证明收敛, 其实只是⼀些, 推理的技巧, 还是挺有意思的.总体上, EM算法, 理解起来,我感觉不是很容易, 但, 也没有想象的那样难, 只要肯坚持, 正如爱因斯坦所说的那样嘛, 当然也为了⾃勉⽬前在经济和精神双重困境中的⾃⼰:耐⼼和恒⼼, 总会获得收获的Loading [MathJax]/jax/element/mml/optable/SuppMathOperators.js。

em算法

em算法

最大期望算法(Expectation-Maximization algorithm, EM),或Dempster-Laird-Rubin算法,是一类通过迭代进行极大似然估计(Maximum Likelihood Estimation, MLE)的优化算法,通常作为牛顿迭代法(Newton-Raphson method)的替代用于对包含隐变量(latent variable)或缺失数据(incomplete-data)的概率模型进行参数估计。

EM算法的标准计算框架由E步(Expectation-step)和M步(Maximization step)交替组成,算法的收敛性可以确保迭代至少逼近局部极大值。

EM算法是MM算法(Minorize-Maximization algorithm)的特例之一,有多个改进版本,包括使用了贝叶斯推断的EM算法、EM梯度算法、广义EM算法等。

由于迭代规则容易实现并可以灵活考虑隐变量,EM算法被广泛应用于处理数据的缺测值,以及很多机器学习(machine learning)算法,包括高斯混合模型(Gaussian Mixture Model, GMM)和隐马尔可夫模型(Hidden Markov Model, HMM)的参数估计。

EM算法是一种迭代优化策略,由于它的计算方法中每一次迭代都分两步,其中一个为期望步(E步),另一个为极大步(M步),所以算法被称为EM算法(Expectation-Maximization Algorithm)。

EM算法受到缺失思想影响,最初是为了解决数据缺失情况下的参数估计问题,其算法基础和收敛有效性等问题在Dempster、Laird和Rubin三人于1977年所做的文章《Maximum likelihood from incomplete data via the EM algorithm》中给出了详细的阐述。

其基本思想是:首先根据己经给出的观测数据,估计出模型参数的值;然后再依据上一步估计出的参数值估计缺失数据的值,再根据估计出的缺失数据加上之前己经观测到的数据重新再对参数值进行估计,然后反复迭代,直至最后收敛,迭代结束。

贝叶斯算法em算法

贝叶斯算法em算法

贝叶斯算法em算法贝叶斯算法和EM算法是统计学中两种重要的方法,它们在数据分析和机器学习领域被广泛应用。

这是两种独立存在的算法,但它们之间存在一种紧密联系。

本文将全面介绍贝叶斯算法和EM算法的概念、原理及其在实际问题中的应用,希望能对读者有指导意义。

首先,我们来了解一下贝叶斯算法。

贝叶斯算法是基于贝叶斯定理的一种概率统计方法,它可以用来从已知的先验概率和新的证据中计算出各种事件的后验概率。

贝叶斯算法的核心思想是通过利用已知的先验知识来更新对未知事件的概率估计,从而得到更准确的预测结果。

它在机器学习中常用于分类问题,通过训练集的样本数据来构建模型,并利用贝叶斯公式进行分类。

与贝叶斯算法相比,EM算法是一种更为复杂的统计学习方法。

EM算法全称为Expectation-Maximization算法,它是一种迭代优化算法,用于求解含有隐变量(未观测到的变量)的概率模型。

EM算法的基本思想是通过两个步骤交替进行,即期望步骤(E步)和最大化步骤(M 步)。

在E步,根据当前的模型参数估计,计算出隐变量的后验概率;在M步,利用已知的观测数据和隐变量的后验概率来更新模型参数。

通过不断迭代这两个步骤,EM算法可以逐步求得最优的模型参数估计。

贝叶斯算法和EM算法可以说是一对有着紧密联系的算法。

贝叶斯算法使用先验概率和后验概率来进行推断,而EM算法则是在给定观测数据和隐变量的情况下,通过迭代优化来估计模型参数。

两者的共同点在于都涉及到概率的推断和模型参数的估计,都是用于解决实际问题的重要方法。

在实际应用中,贝叶斯算法和EM算法有广泛的应用领域。

贝叶斯算法在文本分类、垃圾邮件过滤、推荐系统等领域有着重要应用。

它通过建立模型,利用文本特征对文档进行分类,能够实现精准的分类结果。

EM算法则在聚类、图像分割、高斯混合模型等问题中得到广泛应用。

它通过利用隐变量进行聚类、分割和建模,能够更好地解决复杂的实际问题。

总结来说,贝叶斯算法和EM算法是两种重要的统计学习方法,它们在实际问题中发挥着重要的作用。

【最新】我理解的EM算法ppt模版课件

【最新】我理解的EM算法ppt模版课件

1 Nk
xk
xk
2 k
1 Nk
xk
(xk k )(xk k )T
k
Nk N
4、返回第2步用第3步新得到的参数来对观察数据x
重新分类。直到下式概率(最大似然函数)达
到最大。
k
x
1
e
(
x
k )( 2
x
2 k
k
)T
2 k
问题求解过程:
实际应用举例1:
混合高斯背景模型做运动物体的视频分割, 视频帧图像大了(700*600)以后速度较慢 (一般一秒能处理10帧左右),这里K取5 个高斯分布。
EM算法(机器学习十大算法)
EM算法是个聚类算法,即根据给定观察数据自动 对数据进行分类。
问题来源•给定Biblioteka 些观察数据x,假设x符合如下高斯分布:
K
p(x)
k N (x
k
,
2 k
)
k 1
•求混合高斯分布的三组参数
k
k
2 k
简单问题
•该混合高斯分布一共有K个分布,并且对于每个观察 到的x,如果我们同时还知道它属于K中的哪一个分布, 则我们可以根据最大似然估计求出每个参数。
结论: xk表示属于第k个高斯
k
1 Nk
xk
分布的观察数据x。
xk
2 k
1 Nk
xk
(xk k )(xk k )T
k
Nk N
特别注意 k 是个
向量,而 k2 是个
数值。
实际问题
•观察数据x属于哪个高斯分布是未知的,所以要用 EM算法来解决这种实际问题。
EM算法过程:
1、用随机函数初始化K个高斯分布的参数,同时 保证

基于EM的朴素贝叶斯分类算法

基于EM的朴素贝叶斯分类算法
第 25卷第 11期 2 0 1 0年 1 1月
宿 州学院学报 J ourna l of Suzhou Un iver sity
do i: 10. 3969 / j. issn. 1673 - 2006. 2010. 11. 005
Vol. 25, No. 11 Nov. 2010
基 于 EM 的 朴 素 贝 叶 斯 分 类 算 法
本文提出一种基于 EM 理论的朴素贝叶斯分类 器 ,首先用未缺失的数据属性的算术均数作为初始 值 ,求得极大似然估计 ;其次迭代执行算法的 E步和 M 步直至收敛 ,然后完成缺失数据的填补 ; 最后根据 朴素贝叶斯分类算法对填补后的数据进行分类。
1 朴素贝叶斯理论基础与 EM算法
1. 1 朴素贝叶斯分类 贝叶斯分类器的分类原理是通过某对象的先验
12
0 B2 ) + … + P (A 0 Bn ) P (Bn ) 称为全概率公式 。 定理 2 设试验 E的样本空间为 S, A为 E的事
件 , B1 , B2 , …, Bn 为的一个划分 , 则 P (B i 0 A) =
∑ P ( A 0 Bii ) P ( Bii ) / P (B | Aij ) P (Aij ) = P ( B |
张亚萍 , 陈得宝 , 侯俊钦
(淮北师范大学 物理与电子信息学院 ,安徽 淮北 235000)
摘要 :将 EM 算法引入到朴素贝叶斯分类研究中 ,提出一种基于 EM 的朴素贝叶斯分类算法 。首先用未缺失 的数据 属性的算术均数作为初始值 ,求得极大似然估计 ;其次迭代执行算法的 E步和 M 步直至收敛 ,然后完成缺失数据的 填补 ;最后根据朴素贝叶 斯分 类算 法对数据进行分类 。实验结果表明 ,与朴素贝 叶斯分类 算法相比 ,基于 EM 的朴 素贝叶斯分类算法具有较高的分类准确率 。 关键词 :朴素贝叶斯分类 ;先验概率 ;后 验概 率 ; EM 算法 ;缺失数据 中图分类号 : TP301. 6 文献标识码 : A 文章编号 : 1673 - 2006 ( 2010) 11 - 0012 - 03

关于在数据缺失情况下使用EM算法估计贝叶斯网络结构

关于在数据缺失情况下使用EM算法估计贝叶斯网络结构

关于在数据缺失情况下使⽤EM算法估计贝叶斯⽹络结构当我们要建⽴贝叶斯⽹络时,需要⾸先通过因果关系得到贝叶斯的⽹络结构,再训练得到贝叶斯⽹的参数集。

这⾥,参数集往往是通过给定数据集进⾏统计计算得到,但是,有的时候,给定的数据集不⼀定是完整的,可能某⼀条或多条的数据缺失⼀个或两个数据。

这是需要我们在数据缺失的情况下计算参数集,当然最简单的⽅法是去掉具有缺失数据的⾏,这样显然在数据集较⼩的时候会造成参数集的严重不准确。

在贝叶斯引论那本书中提到要⽤EM算法来解决这个问题。

其实EM算法就是最⼤化期望值算法,这个过程中我们计算在某随机参数情况下的最⼤似然值,然后根据此似然值对参数值进⾏了修正,再次计算极⼤似然值,不断迭代,知道计算得到的值在可接受的阀值范围内。

下⾯来说⼀下,他是咋实现的。

⾸先,输⼊数据是贝叶斯⽹络结构、缺失的数据集、收敛阀值1、设初始迭代次数为0,⽹络参数为任意值。

收敛阀值a2、根据贝叶斯估计公式计算⽹络参数的似然值。

其中:这⾥⾯最值注意的是,在计算的时候⼀定要进⾏进⾏⼀下归⼀化才能得到真正的结果哦。

进⼊循环体:a、⽤oldscore记录似然值。

b、计算(E步骤)c、计算的最⼤值,即“最⼤似然”撒(M步骤)d、此时,得到了newScore,⽐较newScore和oldscore,如果在收敛阀值内,则迭代结束,newscore就是最终结果。

否则,使⽤oldscore 记录newscore,迭代次数加⼀,继续迭代。

在书中他还介绍了,使⽤团树传播⽅法来简化计算过程。

后⾯再记录。

流程。

这个算法可以将参数和缺失数据同时计算出来,虽然对⽅也不清楚他们要什么,但是跑不出这两个。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Machine Learning
Peng Kaixiang 2014. All rights reserved.
Date: File:
11.04.2021 ML6.6
Machine Learning for
Control Engineering
统计推断中可用的三种信息来自美籍波兰统计学家耐曼(E.L.Lehmann1894-1981) 高度概括了在统计推断中可用的三种信息:
p(x1,, xn, ) p(x1,, xn ) ( )
(
x1,, xn )
p(x1,, xn , )
p(x1,, xn )
p(x1,, xn ) ( )
p(x ,, x ) ( )d Machine Learning
1
n
Date: 11.04.2021
Peng Kaixiang 2014. All rights reserved.
• 确定MAP的方法是用贝叶斯公式计算每个候 选假设的后验概率,计算式如下:
hMAP
arg max
hH
P(h |
D)
arg max
hH
P(D | h)P(h) P(D)
arg max
hH
P(D | h)P(h)
(6.2)
最后一步,去掉了P(D),因为它是不依赖于 h的常量。
Machine Learning
Machine Learning
Peng Kaixiang 2014. All rights reserved.
Date: File:
11.04.2021 ML6.2
Machine Learning for
Control Engineering
简介
• 贝叶斯学习算法与机器学习相关的两个原因:
– 贝叶斯学习算法能够计算显示的假设概率,比如朴素贝 叶斯分类器;
Date: File:
11.04.2021 ML6.16
Machine Learning for
Control Engineering
举例:一个医疗诊断问题
• 有两个可选的假设:病人有癌症、病人无癌症 • 可用数据来自化验结果:正+和负• 有先验知识:在所有人口中,患病率是0.008 • 对确实有病的患者的化验准确率为98%,对确实无
Control Engineering
假设Ⅲ 对参数θ已经积累了很多资料,经过分析、整理
和加工,可以获得一些有关θ的有用信息,这种信息就是 先验信息。参数θ不是永远固定在一个值上,而是一个事 先不能确定的量。从贝叶斯观点来看,未知参数θ是一个 随机变量。而描述这个随机变量的分布可从先验信息中归 纳出来,这个分布称为先验分布,其密度函数用π(θ) 表示。
Date: File:
11.04.2021 ML6.7
Machine Learning for
Control Engineering
3.先验信息,即在抽样之前有关统计推断的一些信 息。
譬如,在估计某产品的不合格率时,假如工厂保 存了过去抽检这种产品质量的资料,这些资料(包括 历史数据)有时估计该产品的不合格率是有好处的。 这些资料所提供的信息就是一种先验信息。
11.04.2021 ML6.13
Machine Learning for
Control Engineering
贝叶斯公式
• 贝叶斯公式提供了从先验概率P(h)、P(D) 和P(D|h)计算后验概率P(h|D)的方法;
P(h | D) P(D | h)P(h) P(D)
(6.1)
• P(h|D)随着P(h)和P(D|h)的增长而增长,随 着P(D)的增长而减少,即如果D独立于h时 被观察到的可能性越大,那么D对h的支持 度越小。
• 难度之二:一般情况下,确定贝叶斯最优假 设的计算代价比较大(在某些特定情形下, 这种计算代价可以大大降低)。
Machine Learning
Peng Kaixiang 2014. All rights reserved.
Date: File:
11.04.2021 ML6.5
Machine Learning for
又如某工程师根据自己多年积累的经验对正在设 计的某种彩电的平均寿命所提供的估计也是一种先验 信息。
由于这种信息是在“试验之前”就已有的,故称 为先验信息。
Machine Learning
Peng Kaixiang 2014. All rights reserved.
Date: File:
11.04.2021 ML6.8
Machine Learning
Peng Kaixiang 2014. All rights reserved.
Date: File:
11.04.2021 ML6.11
Machine Learning for
Control Engineering
贝叶斯法则
• 机器学习的任务:在给定训练数据D时,确 定假设空间H中的最佳假设。
Control Engineering
概述
• 贝叶斯推理提供了一种概率手段,基于如下的 假定:待考察的量遵循某概率分布,且可根据 这些概率及已观察到的数据进行推理,以作出 最优的决策。
• 贝叶斯推理为衡量多个假设的置信度提供了定 量的方法。
• 贝叶斯推理为直接操作概率的学习算法提供了 基础,也为其它算法的分析提供了理论框架。
• 类似地,P(D)表示训练数据D的先验概率,P(D|h) 表示假设h成立时D的概率;
• 机器学习中,我们关心的是P(h|D),即给定D时h 的成立的概率,称为h的后验概率。
Machine Learning
Peng Kaixiang 2014. All rights reserved.
Date: File:
• 最佳假设:一种方法是把它定义为在给定数 据D以及H中不同假设的先验概率的有关知 识下的最可能假设。
• 贝叶斯理论提供了一种计算假设概率的方法, 基于假设的先验概率、给定假设下观察到不 同数据的概率以及观察到的数据本身。
Machine Learning
Peng Kaixiang 2014. All rights reserved.
Peng Kaixiang 2014. All rights reserved.
Date: File:
11.04.2021 ML6.15
Machine Learning for
Control Engineering
极大似然假设
• 在某些情况下,可假定H中每个假设有相同 的先验概率,这样式子6.2可以进一步简化, 只需考虑P(D|h)来寻找极大可能假设。
第6章 贝叶斯学习与EM算法 ( Bayesian Learning and EM Algorithm )
Machine Learning
Peng Kaixiang 2014. All rights reserved.
Date: File:
11.04.2021 ML6.1
Machine Learning for
病的患者的化验准确率为97% • 总结如下
P(cancer)=0.008, P(cancer)=0.992 P(+|cancer)=0.98, P(-|cancer)=0.02 P(+|cancer)=0.03, P(-|cancer)=0.97
Date: File:
11.04.2021 ML6.12
Machine Learning for
Control Engineering
先验概率和后验概率
• 用P(h)表示在没有训练数据前假设h拥有的初始概 率。P(h)被称为h的先验概率;
• 先验概率反映了关于h是一正确假设的机会的背景 知识;
• 如果没有这一先验知识,可以简单地将每一候选 假设赋予相同的先验概率;
File:
ML6.10
Machine Learning for
Control Engineering
前面的分析总结如下:人们根据先验信息对参数θ 已有一个认识,这个认识就是先验分布π(θ)。 通过试验,获得样本。从而对θ的先验分布进行调 整,调整的方法就是使用上面的贝叶斯公式,调整 的结果就是后验分布 ( x1,, xn) 。后验分布是三 种信息的综合。获得后验分布使人们对θ的认识又 前进一步,可看出,获得样本的的效果是把我们对 θ的认识由π(θ)调整到 ( x1,, xn) 。所以对 θ的统计推断就应建立在后验分布 ( x1,, xn)的基 础上。
Machine Learning
Peng Kaixiang 2014. All rights reserved.
Date: File:
11.04.2021 ML6.4
Machine Learning for
Control Engineering
贝叶斯方法的难度
• 难度之一:需要概率的初始知识,当概率预 先未知时,可以基于背景知识、预先准备好 的数据以及基准分布的假定来估计这些概率;
1.总体信息,即总体分布或所属分布族给我们的信息。 譬如“总体视察指数分布”或“总体是正态分布”在 统计推断中都发挥重要作用,只要有总体信息,就要 想方设法在统计推断中使用 2.样本信息,即样本提供我们的信息,这是任一种统 计推断中都需要
Machine Learning
Peng Kaixiang 2014. All rights reserved.
假设Ⅱ 当给定θ后,从总体p(x│θ)中随机抽取一 个样本 X1,, X n,该样本中含有θ的有关信息。这种信 息就是样本信息。
Machine Learning
Peng Kaixiang 2014. All rights reserved.
相关文档
最新文档