基于贝叶斯网络的各种抽样方法比较
Matlab中的贝叶斯推断方法解析

Matlab中的贝叶斯推断方法解析概述:贝叶斯推断是一种常用的概率统计方法,它基于贝叶斯定理,通过观测数据来推断参数的后验概率分布。
在Matlab中,有多种方法可以进行贝叶斯推断,包括蒙特卡洛方法、变分贝叶斯方法和马尔科夫链蒙特卡洛方法等。
本文将介绍这些方法的原理和应用,并分析它们的优缺点。
一、蒙特卡洛方法:蒙特卡洛方法是贝叶斯推断中最常用的方法之一。
它通过随机采样来估计参数的后验概率分布。
在Matlab中,可以使用MCMC算法来实现蒙特卡洛采样。
MCMC算法基于马尔科夫链的随机漫步性质,通过在参数空间中进行随机抽样,从而逐步收敛到后验概率分布。
蒙特卡洛方法的优点是易于实现和理解,可以处理复杂模型和高维参数空间。
然而,由于采样过程的不确定性,蒙特卡洛方法通常需要较长的计算时间和较大的计算资源。
另外,由于采样过程是随机的,结果具有一定的随机性,需要进行多次独立采样来提高结果的稳定性。
二、变分贝叶斯方法:变分贝叶斯方法是一种结合概率统计和优化理论的推断方法。
它通过近似参数的后验分布,使用变分推断来直接计算近似后验分布。
在Matlab中,可以使用VB (Variational Bayesian)工具箱来实现变分贝叶斯方法。
变分贝叶斯方法的优点是计算速度快,可以处理大规模数据和复杂模型,同时结果可以得到较好的收敛性。
然而,由于采用近似方法,变分贝叶斯方法可能会引入一定的近似误差,导致结果的不精确性。
此外,变分贝叶斯方法对先验分布和近似分布的选择比较敏感,需要进行适当的调参。
三、马尔科夫链蒙特卡洛方法:马尔科夫链蒙特卡洛方法是一种结合马尔科夫链与蒙特卡洛采样的推断方法。
它通过构造马尔科夫链来生成随机样本,从而估计参数的后验分布。
在Matlab中,可以使用MCMC工具箱来实现马尔科夫链蒙特卡洛方法。
马尔科夫链蒙特卡洛方法的优点是可以得到精确的后验分布估计,同时可以处理复杂模型和高维参数空间。
然而,与蒙特卡洛方法相同,马尔科夫链蒙特卡洛方法仍然需要较长的计算时间和较大的计算资源。
如何利用马尔可夫链蒙特卡洛进行贝叶斯模型比较

贝叶斯模型比较是统计学中一个重要的问题,它涉及到对不同的模型进行比较,来确定哪一个模型更适合描述观测数据。
传统的方法通常是基于贝叶斯信息准则(Bayesian Information Criterion, BIC)或者贝叶斯信息准则(Bayesian Information Criterion, DIC)等指标来进行模型比较。
然而,这些指标在实际应用中存在一定的局限性,因此人们开始尝试利用马尔可夫链蒙特卡洛(Markov Chain Monte Carlo, MCMC)方法来进行贝叶斯模型比较。
一、马尔可夫链蒙特卡洛(MCMC)方法MCMC方法是一种用于从复杂概率分布中抽样的统计方法,它通过构建一个马尔可夫链来模拟目标概率分布。
MCMC方法的基本思想是通过不断地从一个概率分布中抽样,来逼近目标概率分布。
在贝叶斯模型比较中,MCMC方法可以用来从后验分布中抽取参数值,从而进行模型比较。
二、贝叶斯模型比较的基本思想在贝叶斯统计中,模型比较的基本思想是比较不同模型的后验概率。
给定数据D,模型M的后验概率可以表示为P(M|D),根据贝叶斯定理,我们可以将P(M|D)表示为P(D|M)P(M)/P(D),其中P(D)是数据的边际概率。
因此,要比较不同模型的后验概率,就需要计算P(D|M)P(M)和P(D)。
而MCMC方法可以用来计算这些概率。
三、MCMC方法在贝叶斯模型比较中的应用MCMC方法在贝叶斯模型比较中的应用通常包括两个步骤。
首先,需要使用MCMC方法从每个模型的后验分布中抽取参数值。
这可以通过使用Gibbs抽样、Metropolis-Hastings抽样等方法来实现。
其次,需要使用抽取的参数值来计算每个模型的后验概率。
这通常可以通过计算模型的边缘似然函数来实现。
最后,通过比较不同模型的后验概率,就可以确定哪个模型更适合描述观测数据。
四、MCMC方法在贝叶斯模型比较中的优势与传统的方法相比,MCMC方法在贝叶斯模型比较中具有一些优势。
贝叶斯网络的采样方法(十)

贝叶斯网络是一种用来描述变量之间概率关系的图模型,在人工智能、机器学习和概率推断等领域有着广泛的应用。
贝叶斯网络的采样方法是指根据网络结构和概率分布进行随机抽样的方法,用来进行推断和预测。
本文将讨论贝叶斯网络的采样方法,包括马尔科夫链蒙特卡洛法(MCMC)、重要性采样和粒子滤波等几种常见的方法。
马尔科夫链蒙特卡洛法是一种基于马尔科夫链的随机采样方法,它通过在状态空间上进行随机游走来模拟概率分布。
在贝叶斯网络中,我们可以利用马尔科夫链蒙特卡洛法来进行概率推断,即通过抽取样本来估计变量的后验分布。
常见的马尔科夫链蒙特卡洛法包括Metropolis-Hastings算法和Gibbs抽样算法。
这些方法在处理高维复杂的贝叶斯网络时具有一定的优势,但也存在着计算效率低和收敛速度慢的缺点。
重要性采样是一种基于概率权重的随机采样方法,它通过按照概率分布对样本进行加权来模拟目标分布。
在贝叶斯网络中,我们可以利用重要性采样来进行变量的边缘概率估计,从而进行推断和预测。
重要性采样的优点在于可以灵活地选择重要性函数,适用于不同的分布形状和采样需求。
然而,它也存在着样本效率低和权重方差大的问题,尤其在高维情况下表现不佳。
粒子滤波是一种基于蒙特卡洛方法的时变状态估计算法,它通过在状态空间上进行随机抽样来模拟状态的后验分布。
在贝叶斯网络中,我们可以利用粒子滤波来进行状态的递归估计,尤其适用于非线性和非高斯分布的情况。
粒子滤波的优点在于可以灵活地处理非线性和非高斯情况,同时也可以进行在线实时估计。
然而,粒子滤波在高维情况下计算复杂度较高,而且需要合适的粒子数目来保证估计的准确性。
综上所述,贝叶斯网络的采样方法包括马尔科夫链蒙特卡洛法、重要性采样和粒子滤波等几种常见的方法。
这些方法在不同的情况下具有各自的优势和局限性,需要根据具体的应用场景来选择合适的方法。
随着人工智能和机器学习领域的不断发展,贝叶斯网络的采样方法也将得到进一步的改进和完善,为实际应用提供更加有效和高效的解决方案。
重要性采样在贝叶斯网络中的参数学习及结构学习方法探索

重要性采样在贝叶斯网络中的参数学习及结构学习方法探索在贝叶斯网络中,参数学习和结构学习是推断过程中至关重要的两个步骤。
重要性采样是一种常见的方法,在贝叶斯网络中可以用于参数学习和结构学习。
首先,让我们先来了解一下贝叶斯网络。
贝叶斯网络是一种概率图模型,用于建模变量之间的依赖关系。
它由有向无环图表示,其中节点表示变量,边表示依赖关系。
贝叶斯网络通过条件概率分布和贝叶斯定理来表示变量之间的关系和推理过程。
参数学习是指在给定贝叶斯网络结构的情况下,通过观察数据来估计网络中的参数。
常见的方法包括最大似然估计和贝叶斯推断。
然而,当变量的数量较多或者数据集较大时,精确估计参数将变得困难。
这时候,重要性采样可以派上用场。
重要性采样是一种用于近似计算积分的方法,可以在参数学习中用于近似计算网络的边缘概率和条件概率。
它基于一个重要性分布,通过对样本进行抽样和权重计算来近似计算目标概率。
重要性采样可以提高计算效率,减少计算复杂度。
在贝叶斯网络中,重要性采样的参数学习方法可以分为两步:抽样和权重计算。
首先,我们需要从重要性分布中抽样得到一组样本,这些样本可以来自先验分布或者其他已知分布。
然后,根据抽样得到的样本,我们可以计算每个样本的权重,权重是目标分布和重要性分布的比值。
最后,通过对样本的加权平均来近似计算目标概率。
结构学习是指在给定数据和变量集合的情况下,从所有可能的网络结构中选择最优的贝叶斯网络结构。
常见的方法有贝叶斯结构学习和启发式搜索。
重要性采样可以用于结构学习中的模型选择和评估。
在结构学习中,重要性采样可以用于从候选网络中抽样网络结构,并计算每个结构的权重。
这些权重可以用于比较不同结构的优劣,并选择最优的网络结构。
同时,重要性采样可以用于对模型进行评估,通过计算不同结构的边缘概率和条件概率来评估模型的质量和准确性。
总结来说,重要性采样是在贝叶斯网络中进行参数学习和结构学习的一种有效方法。
它可以提高计算效率,减少计算复杂度。
贝叶斯网络的参数敏感性分析(五)

贝叶斯网络的参数敏感性分析贝叶斯网络是一种用于建模不确定性和概率推理的强大工具。
它由节点和边组成,节点表示变量,边表示变量之间的关系。
在贝叶斯网络中,参数的选择对于模型的性能和结果具有重要的影响。
因此,对贝叶斯网络的参数敏感性进行分析是非常重要的。
一、贝叶斯网络简介贝叶斯网络是一种图形模型,用于表示变量之间的概率依赖关系。
它可以用来描述变量之间的因果关系,并用于进行概率推理。
贝叶斯网络有两种类型的节点:随机变量节点和参数节点。
随机变量节点表示观察到的变量,参数节点表示概率分布的参数。
边表示变量之间的依赖关系,表示一个变量的值对另一个变量的值有何影响。
贝叶斯网络可以用于解决很多实际问题,比如医学诊断、风险评估、机器学习等。
二、贝叶斯网络的参数敏感性贝叶斯网络的参数有很多,比如概率表、条件概率表等。
这些参数对于模型的性能和结果具有重要的影响。
因此,对贝叶斯网络的参数敏感性进行分析是非常重要的。
参数敏感性分析是指在给定参数的不确定性情况下,对模型的输出结果进行分析。
通过参数敏感性分析,可以确定哪些参数对于模型的结果有重要的影响,进而进行参数调整和优化。
三、参数敏感性分析的方法对于贝叶斯网络的参数敏感性分析,可以采用不同的方法来进行。
一种方法是敏感性分析。
敏感性分析是一种通过改变参数值来评估模型输出结果对参数变化的敏感程度的方法。
另一种方法是Monte Carlo模拟。
Monte Carlo模拟是一种通过随机抽样来评估参数敏感性的方法。
还有一种方法是灵敏度分析。
灵敏度分析是一种通过改变模型输入,来评估模型输出对输入变化的敏感程度的方法。
这些方法可以结合使用,来对贝叶斯网络的参数敏感性进行全面的分析。
四、参数敏感性分析的意义对贝叶斯网络的参数敏感性进行分析,有很多重要的意义。
首先,它可以帮助确定哪些参数对于模型的结果有重要的影响,进而进行参数调整和优化。
其次,它可以帮助评估模型输出对参数变化的敏感程度,从而提高模型的可靠性和稳定性。
贝叶斯网络的近似推断方法(五)

贝叶斯网络是一种用来描述随机变量之间依赖关系的图模型,也是一种用来进行概率推断的工具。
在实际应用中,贝叶斯网络可以帮助我们对未知变量进行推断,从而做出更加合理的决策。
然而,精确的贝叶斯推断通常需要计算复杂的概率分布,这在实际问题中往往是不可行的。
因此,近似推断方法成为了贝叶斯网络研究的重要内容之一。
一、蒙特卡洛方法蒙特卡洛方法是一种常见的近似推断方法。
它通过从概率分布中抽取大量的样本来近似计算分布的期望值。
在贝叶斯网络中,蒙特卡洛方法可以用来对后验分布进行近似推断。
具体来说,我们可以通过抽取大量的样本来近似计算后验概率分布,从而得到对未知变量的推断结果。
蒙特卡洛方法的优点是简单易行,而且在一定条件下可以得到较为精确的近似结果。
但是,它也存在着计算量大、收敛速度慢等缺点,特别是在高维问题中往往难以有效应用。
二、变分推断方法变分推断方法是另一种常见的近似推断方法。
它通过寻找一个与真实后验分布相近的分布来进行推断。
在贝叶斯网络中,变分推断方法可以通过最大化一个变分下界来近似计算后验分布。
具体来说,我们可以假设一个参数化的分布族,然后寻找一个参数使得该分布在KL散度意义下与真实后验分布最为接近。
变分推断方法的优点是可以通过参数化的方式来近似计算后验分布,从而在一定程度上减少计算量。
但是,它也存在着对分布族的选择敏感、局部最优解等问题。
三、马尔科夫链蒙特卡洛方法马尔科夫链蒙特卡洛方法是一种结合了蒙特卡洛方法和马尔科夫链的近似推断方法。
它通过构建一个转移核函数来对后验分布进行采样,从而得到对未知变量的推断结果。
在贝叶斯网络中,马尔科夫链蒙特卡洛方法可以用来对后验分布进行采样。
具体来说,我们可以构建一个马尔科夫链,使得其平稳分布为真实后验分布,然后通过该链进行采样。
马尔科夫链蒙特卡洛方法的优点是可以通过马尔科夫链的方式来进行采样,从而在一定程度上减少计算量。
但是,它也存在着收敛速度慢、样本自相关等问题,特别是在高维问题中往往难以有效应用。
贝叶斯网络的采样方法(六)

贝叶斯网络的采样方法贝叶斯网络是一种用于建模不确定性和推理的强大工具。
它是一种图形化表示,用于描述变量之间的概率依赖关系。
通过使用条件概率表和有向无环图,贝叶斯网络可以帮助我们理解和预测复杂的现实世界问题。
在贝叶斯网络中,变量之间的依赖关系通过条件概率表进行描述,这些条件概率表可以用来进行推断和预测。
然而,当贝叶斯网络的结构和参数未知时,我们需要进行采样来学习网络的结构和参数。
在这篇文章中,我们将探讨几种常见的贝叶斯网络采样方法,包括马尔科夫链蒙特卡洛(MCMC)采样、重要性采样和Gibbs采样。
MCMC采样是一种常见的用于从复杂的概率分布中抽取样本的方法。
它的核心思想是构建一个马尔科夫链,使其平稳分布与目标分布一致。
在贝叶斯网络中,MCMC采样可以用来从联合概率分布中抽取样本,从而学习网络的结构和参数。
MCMC采样的一个常见算法是Metropolis-Hastings算法,它通过接受-拒绝的方式生成样本,从而逼近目标分布。
然而,MCMC采样的缺点是难以收敛到目标分布,尤其是在高维空间中。
重要性采样是另一种常见的贝叶斯网络采样方法。
它的核心思想是通过对目标分布进行重要性加权来生成样本。
在贝叶斯网络中,重要性采样可以用来从联合概率分布中抽取样本,从而学习网络的结构和参数。
重要性采样的一个常见算法是随机抽样,它通过对样本进行重要性加权来逼近目标分布。
然而,重要性采样的缺点是需要对目标分布进行合理的重要性权重估计,否则会导致样本偏离目标分布。
Gibbs采样是一种特殊的MCMC采样方法,它可以用来从多变量分布中抽取样本。
在贝叶斯网络中,Gibbs采样可以用来从联合概率分布中抽取样本,从而学习网络的结构和参数。
Gibbs采样的核心思想是通过在给定其他变量的情况下对每个变量进行抽样来生成样本。
Gibbs采样的一个优点是它在高维空间中更容易收敛到目标分布,因为它可以通过对每个变量进行逐一更新来减少维度。
然而,Gibbs采样的缺点是它需要对条件分布进行建模,这在高维空间中可能变得非常困难。
贝叶斯统计中的Gibbs抽样算法

贝叶斯统计中的Gibbs抽样算法贝叶斯统计学是一种基于贝叶斯定理的数据分析方法,它允许我们通过将先验知识与新数据结合,来更新我们对事物的认识。
Gibbs抽样算法是一种用于实现贝叶斯推断的统计方法,它基于马尔可夫链蒙特卡罗(MCMC)的思想,通过迭代地生成样本来近似地估计目标后验分布。
Gibbs抽样算法的基本思想是按照一个个变量的条件分布来逐步生成样本。
具体来说,我们假设有一个多元随机变量X=(X1,X2,...,Xn),我们想要根据样本数据来估计它的边缘分布或者给定条件下的后验分布。
针对这个问题,我们可以通过Gibbs抽样算法来进行有效的推断。
Gibbs抽样算法的步骤如下:1. 初始化样本: 随机选取一个起始样本X(0)=(X1(0),X2(0),...,Xn(0)),通常选择的方法是从边缘分布或条件分布中抽取一个初始值。
2. 对每个变量进行随机抽样:对于第i个变量,我们需要计算给定其他变量条件下它的条件分布,记作p(X1(j),...,Xi(j),...,Xn(j)|X1(j-1),...,Xi-1(j),Xi+1(j-1),...,Xn(j-1)),其中i=1,2,...,n。
然后,我们从这个条件分布中抽取一个样本,得到X(i)(j+1)。
3. 重复迭代步骤2,生成样本X(i)(1),X(i)(2),...,X(i)(m),其中m 是迭代次数。
注意,每次生成样本X(i)(j+1)时,都要使用更新过的其他变量的值,也就是X(k)(j+1)(k≠i)。
4. 将所有抽样得到的样本组合起来,得到一个样本序列:X(1),X(2),...,X(m)。
通过Gibbs抽样算法得到的样本序列,可以用来近似估计目标分布的期望值、方差、置信区间等统计量。
特别地,当迭代次数足够大时,Gibbs抽样算法可以保证样本序列的收敛性和稳定性,从而使得估计结果更加准确。
总之,Gibbs抽样算法是一种重要的贝叶斯统计学习方法,它可以帮助我们实现对复杂随机变量的有效推断。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
摘要: 本文主要介绍了贝叶斯网的基本概念以及重要性抽样方法的基本理论和概率推理, 重点介绍了两种重要的抽样方法, 即逻辑抽样方法和似然加权法, 并且比较了它们的优缺点关键词: 贝叶斯网 抽样法 无偏估计1.引言英国学者T.贝叶斯1763年在《论有关机遇问题的求解》中提出一种归纳推理的理论, 后被一些统计学者发展为一种系统的统计推断方法, 称为贝叶斯方法.采用这种方法作统计推断所得的全部结果, 构成贝叶斯统计的内容.认为贝叶斯方法是唯一合理的统计推断方法的统计学者, 组成数理统计学中的贝叶斯学派, 其形成可追溯到 20世纪 30 年代.到50~60年代, 已发展为一个有影响的学派.Zhang 和Poole 首先提出了变量消元法, 其原理自关于不定序动态规划的研究(Bertele and Brioschi,1972).相近的工作包括D`Ambrosio (1991)、Shachter (1994)、Shenoy (1992)等人的研究.近期关于变量消元法的研究可参见有关文献【1】由于变量消元法不考虑步骤共享, 故引进了团树传播法, 如Hugin 方法.在实际应用中, 网络节点往往是众多的, 精确推理算法是不适用的, 因而近似推理有了进一步的发展. 重要性抽样法(Rubinstein, 1981)是蒙特尔洛积分中降低方差的一种手段, Henrion (1988)提出了逻辑抽样, 它是最简单也是最先被用于贝叶斯网近似推理的重要性抽样算法. Fung 和Chang (1989)、Shachter 和Peot (1989)同时提出了似然加权算法. Shachter 和Peot (1989)还提出了自重要性抽样和启发式重要性抽样算法. Fung 和Favero (1994)提出了逆序抽样(backward sam-pling ), 它也是重要性抽样的一个特例. Cheng 和Druzdzel (2000)提出了自适应重要性抽样算法, 同时也给出了重要性抽样算法的通用框架, 这就是各种抽样方法的发展状况. 本文就近似推理阐述了两种重要的抽样方法即逻辑抽样方法和似然加权法, 并比较了它们的优缺点.2. 基本概念2.1 贝叶斯网络的基本概念贝叶斯网络是一种概率网络, 用来表示变量之间的依赖关系, 是带有概率分布标注的有向无环图, 能够图形化地表示一组变量间的联合概率分布函数.贝叶斯网络模型结构由随机变量(可以是离散或连续)集组成的网络节点, 具有因果关系的网络节点对的有向边集合和用条件概率分布表示节点之间的影响等组成.其中节点表示了随机变量, 是对过程、事件、状态等实体的某些特征的描述; 边则表示变量间的概率依赖关系.起因的假设和结果的数据均用节点表示, 各变量之间的因果关系由节点之间的有向边表示, 一个变量影响到另一个变量的程度用数字编码形式描述.因此贝叶斯网络可以将现实世界的各种状态或变量画成各种比例, 进行建模.2.2重要性抽样法基本理论设()f X 是一组变量X 在其定义域n X R Ω⊂上的可积函数.考虑积分()()X I f X d X Ω=⎰ (2.2.1)为了近似计算这一积分, 重要性抽样方法将上式改写为如下形式:()()()()X f X I P X d X P X Ω=⎰ (2.2.2) 这里, X 被看成是一组随机变量, ()P X 是X 的一个联合分布, 称为重要性分布, 它满足以下条件: 对X 的任意取值x , 如果()0f X x =≠, 那么()0P X x =≠.接下来, 重要性抽样方法()P X 从独立地抽取m 个样本12,,...,,m D D D 并基于这些样本来对积分I 进行估计:1()1.()m i m i i f D I m P D ==∑ (2.2.3) 可以证明, m I 是I 的一个无偏估计, 且根据强大数定律, 当样本量m 趋于无穷时, m I 几乎收敛于I .重要性抽样法的性能主要从两个方面来衡量: 一个是算法复杂度, 另一个是近似解的精度.因此, 人们用计算m I 所需的时间t 和m I 的方差var()m I 之积var()m t I *来度量重要性抽样法的效率:var()m t I *越小, 算法的效率越高, 收敛速度也就越快, 从而获得高精度近似所需的样本量不大.这里, 方差可用下式计算:221()var()()()X m f X I d X I m P X Ω⎡⎤=-⎢⎥⎢⎥⎣⎦⎰ (2.2.4) 重要性分布的选择是提高算法效率的关键.由于重要性分布的选择对时间复杂度的影响不大, 因此为了提高算法的效率, 应该选用使得方差var()m I 尽可能小的重要性分布.根据式(2.2.4),若被积函数()0f x >, 则最优重要性分布为*()()/P X f X I =.此时v a r ()0m I =, 样本被集中在()f X 值较大的"重要"区域.由于I 本身是未知的, 在实际中很少能够从*()P X 抽样, 只能寻找与*()P X 尽量接近的分布.重要性分布与最优分布*()P X 越接近, 方差var()m I 就越小.2.3重要性抽样法的概率推理考虑一个贝叶斯网μ, 用X 记其中所有变量的集合,()P X 记μ所表示的联合概率分布.设观测到证据E e =.下面将讨论如何近似计算一组查询变量Q 取某值q 的后验概率(|)P Q q E e ==.设W 是一些变量的集合, Y 是的W 一个子集合, \Z W Y =, 并设y 为Y 的一个取值.定义函数1,()(,)0,Y y Y y Y y W Y Z χχ===⎧==⎨≠⎩若若Y y (2.3.1) 按条件概率的定义, 有(,)(|)()P Q q E e P Q q E e P E e ======. (2.3.2) 根据式(2.3.1)(,)P Q q E e ==和()P E e =可以分别表示成如下形式:(,)()()(),Q q E e XP Q q E e X X P X χχ=====∑ (2.3.3)()()()E e XP E e X P X χ===∑. (2.3.4)于是可以利用重要性抽样法来对它们进行近似.对于近似的一般性质, 有一点需要注意.根据以上讨论, 利用重要性抽样法获得的对(,)P Q q E e ==和()P E e =的估计是无偏的.3. 重要性抽样方法3.1逻辑抽样法要用重要性抽样法解决式(2.3.3)和式(2.3.4)的问题, 首先需要选择一个重要性分布.一个很自然的想法就是选用联合分布()P X 本身来作为重要性分布, 其中{}12,,...,n X X X X =, 这样就得到了逻辑抽样.逻辑抽样法首先从()P X 分布中抽取样本.注意到()P X 分解为()(|()),X XX X P X P π∈=∏其中()X π表示那些在拓扑序排列中那些在节点X 之前的节点12,,...,i X X X 的一个集合.因此可以按照贝叶斯网μ的拓扑序对其中的变量逐个进行抽样: 对待抽样变量i X ,若它是根节点, 则按分布()i P X 进行抽样; 若是非根节点, 则按分布是(|())i i P X X r π=进行抽样, 这里()i X r π=是父节点的抽样结果, 在对i X 抽样时是已知的, 为顺序抽样, 此过程需要从一些单变量概率分布随即抽样.(图1)对图1所示的贝叶斯网, 用逻辑抽样法计算(|E )P Q q e ==, 逻辑抽样法生成一个样本的过程如下:假设对()P X 顺序抽样过程获得了m 个独立样本12,D D …m D , 其中满足E e =的有e m 个, 而在这e m 个样本中, 进一步满足Q q =的有,q e m 个.根据式(2.2.3)和式(2.3.3) , 有1()()()1(,)()m Q q i E e i i i i D D P D P Q q E e m P D χχ=====≈∑11()()mQ q i E e i i D D m χχ====∑ ,.q em m =类似地, 根据式(2.2.3)和(2.3.4)可得11()()mE e i i P E e D m χ===≈∑ =e m m. 将上面两式代入式(2.3.2), 可得 ,(|)q ee m P Q q E e m ==≈, (4.1.1)这就是通过逻辑抽样法获得的对后验概率的近似, 它是在所有满足E e =的样本中, 进一步满足Q q =的样本比例.逻辑抽样法所产生与证据E e =不一致的那些样本相当于被舍弃.因此, 逻辑抽样有时也称为舍选抽样.3.2似然加权法似然加权法是重要性抽样的一个特例, 提出它的一个主要目的是避免逻辑抽样因舍弃样本而造成浪费.在抽样过程中, 它按拓扑序对每个变量进i X 行抽样: 当i X 不是证据变量时, 抽样方法与逻辑方法一致; 而当是i X 证据变量时, 则以的i X 观测值作为抽样结果.这样保证了每一个样本都与证据E e =一致, 从而可以利用, 不必舍弃.对图1所示的贝叶斯网, 用似然加权法计算(|)P R t S t ==, 似然加权法生成一个样本的过程如下:(1)对根节点C , 从()P C 抽样, 假设得到C t =;(2)对节点S , 因为S E ∈是证据变量, 所以抽样结果被视为它的观测值t ;(3)对节点R , 抽样分布为(|)P R C t =, 假设得到R t =;(4)最后对叶节点W 抽样, 抽样分布为(|,)P W R t S t ==,假设得到W t =.最后产生的样本为D ={,,,C t R t S t W t ====}.设12,D D ,…m D 是通过上述过程抽得的m 个样本.下面讨论怎样基于它们对(,)P Q q E e ==和()P E e =进行近似.设Y 是X 的一个子集.对任一Y 的函数()h Y , 用()|i D h Y 表示当变量Y 取i D 中的值时, 这个函数的函数值.对任一X X ∈, (|())X X P π是X 中一些变量的函数.于是, (|())|i D X X P π是当变量取i D 中的值时, 这个函数的函数值.用Z 记所有非证据变量的集合, 即\Z X E =,设'()P X 是似然加权法所使用的重要性分布.不难看出, '()()E e P E E χ==, 而'(|)(|)(|())X XX X P Z E P Z E P π∈==∏于是有''()(,)P X P Z E =''()(|)P E P Z E =()(|())X E e X X X E P χπ=∈=∏ 注意()(,)()E e E e E e X E Z E χχχ=====.于是有'()()(|())XE e X X X P X X P χπ=∈=∏ 对每个i =1,2, …, m , 样本i D 与证据E e =一致, 因此对一函数()h X , 有()()()|iE e i i D D h D h X χ==.所以, . '(X)=(|())|X i D Z X X P P π∈∏ ()()(|())|X iE e i i D Z X X D P D P χπ=∈=∏.根据式(2.2.3)和式(2.3.3), 可得'1()()()1(,)()m Q q i E e i i i i D D P D P Q q E e m P D χχ=====≈∑ 1(|())|1()(|())|XX i i D mX Q q i i D ZX X X X P D m P πχπ∈==∈=∏∑∏ 11()(|())|Xi mQ q i D i E X X D P m χπ==∈=∑∏ 11()(),mQ q i i i D w D m χ===∑ (4.1.2) 其中()(|())|X i i D E X X w D P π∈=∏. 类似地, 根据式(2.2.3)和式(2.3.4), 可得'1()()1()()m E e i i i i D P D P E e m P D χ===≈∑ =11()mi i w D m =∑. (4.1.3) 将式(4.1.2)和式(4.1.3)代入式(2.3.2), 得11()()(|)()m Q qi i i m i i D w D P Q q E e w D χ=====≈∑∑. (4.1.4)4. 两种抽样方法的优缺点逻辑抽样的优点是简单易行, 缺点是当概率()P E e =很小时, 算法效率低, 收敛速度慢.事实上, 问题的最优重要性分布是()()()E e X P X P E e χ==, 而抽样使用的是分布()P X ,两者差别显著: 前者的概率质量集中在X 的与E e =一致的那些取值处, 而后者在这些区域的概率值却很小, 随着()P E e =的减小, 所抽得的与E e =一致的样本个数将会减少, 因此大量样本被舍弃, 造成了计算资源的浪费.与逻辑抽样相比, 似然加权法相当于为每个样本i D 都赋予一个权重()i w D .设i z 为i D 中Z 的取值, 则i D 可以写成i D (,)i Z z E e ===.当所有证据变量都是叶节点时, 权重是()i w D , 即给定E e =时i Z z =的似然度.似然加权法的优点是每个样本都被利用, 效率比逻辑抽样有很大提高. 当所有证据变量都位于网络顶端时, 重要性分布'()P X 正好就是最优分布, 似然加权的效率达到最优.在其它情况下, 重要性分布与最优分布可能差别显著, 尤其是当概率()P E e =很小时.这时, 算法的收敛会很慢, 即要获得高精度的近似所需的样本量会增加.参考文献[1] Becker A,Geiger D.2001.A sufficiently fast algorithm for finding close to optimal clique trees.Artificial Intelligence,125(1-2):3~17[2] Bertele U,Brioschi F.Nonserial dynamic programming.New York:Academic Press[3] D`Ambrosio B.1991.Local expression languages for probabilistic dependence:a preliminary report. In UAI`91:Proceedings of the Seventh Conference on Uncertainty in Artificial Intelligence .San Francisco:Morgan Kaufmann Publishers.95~102[4] Shachter R D 1994.Symbolic probabilistic inference in belief networks. In Proceedings of the Eighth National Conference on Artificial Intelligence.126~131[5] Zhang N L,PooleD.1994.A simple approach to Bayesian network computations.In Proc.of the Tenth Canadian Conference on Artificial Intelligence.171~178[6]李奔波.多品种小批量生产工序能力和控制图研究[D].重庆: 重庆大学数学系研究所.2006.4: 1~7.[7] 王洪琦, 许有玲.1999.面向21世纪—中医基础理论研究状和未来[M].北京: 军事医学科学出版社.[8]秦静等.质量管理学[M].北京: 科学出版社, 2007.[9]徐岚等.SPC在多品种小批量生产线的应用研究[J].微电子学, 2007,37(5):682 684[10]袁普及.基于成组技术的质量控制的研究[D].南京:南京航空航天大学,2003.5.[11]韩玉启, 朱慧明.多元质量特性的贝叶斯均值向量控制图[J].南京理工大学学报,2003,27(5):561 566[12]王建稳.多品种小批量生产情形下的工序质量控制图[J].数理统计与管理, 2002, 21(4):34 37[13]王学明.应用多元分析[M].上海: 上海财经大学出版社,1999[14]胡兴才.基于小批量的统计过程控制研究与系统开发[D].南京: 南京航空航天大学,2006.2.[15]朱慧明、韩玉启.贝叶斯多元统计推断理论[M].北京: 科学出版社,2006。