(15)贝叶斯推理-采样与变分简介
深入浅出贝叶斯模型选择

深入浅出贝叶斯模型选择大家好,我是云朵君!上篇文章我们一起学习了贝叶斯统计基本理论, 戳这里回顾深入浅出经典贝叶斯理论。
数据STUDIO点击领取《Python学习手册》,后台回复「福利」获取。
『数据STUDIO』专注于数据科学原创文章分享,内容以 Python 为核心语言,涵盖机器学习、数据分析、可视化、MySQL等领域干货知识总结及实战项目。
148篇原创内容公众号点击关注|设为星标|干货速递贝叶斯推理贝叶斯推理[1](Bayesian inference)是统计学中的一个重要问题,也是许多机器学习方法中经常遇到的问题。
例如,用于分类的高斯混合模型或用于主题建模的潜在狄利克雷分配(Latent Dirichlet Allocation,简称LDA)模型等概率图模型都需要在拟合数据时解决这一问题。
同时,由于模型设置(假设、维度……)不同,贝叶斯推理问题有时会很难解决。
在解决大型问题时,精确的方案往往需要繁重的计算,要完成这些难以处理的计算,必须采用一些近似技术,并构建快速且有可扩展性的系统。
统计推断旨在根据可观察到的事物来了解不可观察到的事物。
即,统计推断是基于一个总体或一些样本中的某些观察变量(通常是影响)得出结论的过程,例如关于总体或样本中某些潜在变量(通常是原因)的准时估计、置信区间或区间估计等。
而贝叶斯推理则是从贝叶斯的角度产生统计推断的过程。
简而言之,贝叶斯范式是一种统计/概率范式,在这种范式中,每次记录新的观测数据时就会更新由概率分布建模的先验知识,观测数据的不确定性则由另一个概率分布建模。
支配贝叶斯范式的整个思想嵌入在所谓的贝叶斯定理中,该定理表达了更新知识(“后验”)、已知知识(“先验”)以及来自观察的知识(“可能性”)之间的关系。
贝叶斯模型选择贝叶斯定理为上面的每一项都有一个名称,测量不同的概率:1.后验概率: 是给定数据和具有超参数的模型的参数值的条件概率。
2.可能性: 是给出模型的数据的概率,又称为模型的似然。
变分贝叶斯推断 和 变分推断

变分贝叶斯推断和变分推断变分贝叶斯推断(Variational Bayesian Inference)和变分推断(Variational Inference)是两种常见的概率推断方法。
它们可以用于从观察数据中学习概率模型的参数,并进行预测。
本文将分别介绍这两种推断方法的基本原理和应用领域。
1.变分贝叶斯推断(Variational Bayesian Inference)变分贝叶斯推断是一种基于贝叶斯推断的方法,通过引入变分分布来近似真实的后验分布。
变分分布是一种简化的概率分布,其参数由一组变分参数表示。
通过最小化真实后验分布与变分分布之间的差异,可以得到变分参数的最优解。
变分贝叶斯推断的基本原理是在概率模型中引入隐变量,通过给定观察数据和先验概率,通过最大化后验概率(Posterior)来估计未观察到的变量。
然而,精确计算后验概率通常是困难的,因此引入了变分分布来近似后验分布。
变分贝叶斯推断可以看作是一种参数优化问题,通过不断迭代优化变分参数,使得变分分布与真实的后验分布尽量接近。
变分贝叶斯推断在许多机器学习和统计学问题中具有重要的应用。
例如,在主题模型和潜在狄利克雷分配(Latent Dirichlet Allocation)中,变分贝叶斯推断可以用来学习主题和文档之间的关系。
在深度学习中,变分自编码器(Variational Autoencoder)可以用于生成模型中的隐变量推断。
此外,在图模型、强化学习和贝叶斯优化等领域,变分贝叶斯推断也有广泛的应用。
2.变分推断(Variational Inference)变分推断是一种常见的非贝叶斯推断方法,用于近似未知后验分布。
与变分贝叶斯推断相比,变分推断更加灵活,因为它不依赖于特定的先验分布或模型选择。
变分推断通过最小化真实的后验分布和变分分布之间的差异,来获得变分参数的最优解。
变分推断的基本原理是通过一组变分参数来描述概率分布的近似。
这些变分参数可以通过最大化变分下界(Variational Lower Bound)来进行优化。
贝叶斯分类

贝叶斯分类算法外文名bayesian classifier所属学科统计学定义利用概率统计知识进行分类的算法目录常会走在路上对身旁的朋友说“这个人一看就很有钱、那边有个非主流”之类的话,其实这就是一种分类操作。
从数学角度来说,分类问题可做如下定义:已知集合:和,确定映射规则,使得任意有且仅有一个使得成立。
(不考虑模糊数学里的模糊集情况)其中C叫做类别集合,其中每一个元素是一个类别,而I叫做项集合,其中每一个元素是一个待分类项,f叫做分类器。
分类算法的任务就是构造分类器f。
这里要着重强调,分类问题往往采用经验性方法构造映射规则,即一般情况下的分类问题缺少足够的信息来构造100%正确的映射规则,而是通过对经验数据的学习从而实现一定概率意义上正确的分类,因此所训练出的分类器并不是一定能将每个待分类项准确映射到其分类,分类器的质量与分类器构造方法、待分类数据的特性以及训练样本数量等诸多因素有关。
例如,医生对病人进行诊断就是一个典型的分类过程,任何一个医生都无法直接看到病人的病情,只能观察病人表现出的症状和各种化验检测数据来推断病情,这时医生就好比一个分类器,而这个医生诊断的准确率,与他当初受到的教育方式(构造方法)、病人的症状是否突出(待分类数据的特性)以及医生的经验多少(训练样本数量)都有密切关系。
1.3、贝叶斯分类的基础——贝叶斯定理每次提到贝叶斯定理,我心中的崇敬之情都油然而生,倒不是因为这个定理多高深,而是因为它特别有用。
这个定理解决了现实生活里经常遇到的问题:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)。
这里先解释什么是条件概率:表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。
其基本求解公式为:。
贝叶斯定理之所以有用,是因为我们在生活中经常遇到这种情况:我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出,但我们更关心P(B|A),贝叶斯定理就为我们打通从P(A|B)获得P(B|A)的道路。
变分推断的基本原理与方法

变分推断的基本原理与方法1. 引言变分推断是一种用于近似推断概率模型参数的方法。
它在机器学习中具有广泛的应用,尤其在大规模数据分析和贝叶斯推理中表现出色。
本文将介绍变分推断的基本原理和常用方法,以帮助读者更好地理解和应用变分推断。
2. 变分推断的原理变分推断的目标是近似计算给定观测数据下的后验分布。
它采用了一种变分参数化的方法来表示后验分布,并将推断问题转化为参数优化问题。
基本的变分推断原理可以归结为最小化推断模型与真实后验分布之间的差异,以获得近似的后验分布。
3. 变分推断的方法(1)变分推断的基本方法基本的变分推断方法是采用一种特定的变分分布来近似真实的后验分布。
常用的变分分布包括高斯分布、狄利克雷分布等。
通过设定变分分布的参数,可以通过最小化变分分布与真实后验分布之间的差异来近似推断后验分布。
(2)坐标上升算法坐标上升算法是一种常用的变分推断方法,它通过迭代地更新变分参数来逐步逼近后验分布。
在每一次迭代中,坐标上升算法固定其他变分参数,只优化其中一个变分参数,然后交替优化不同的变分参数。
这种迭代的更新过程可以得到越来越精确的后验分布估计。
(3)期望最大化算法期望最大化算法是另一种常见的变分推断方法,它通过交替进行期望步骤和最大化步骤来逼近后验分布。
在期望步骤中,固定参数,计算关于隐藏变量的期望;在最大化步骤中,固定隐藏变量,更新参数。
通过交替进行这两个步骤,可以逐步提高后验分布的准确性。
4. 变分推断的应用变分推断在概率图模型、深度学习和机器学习等领域都有广泛的应用。
在概率图模型中,变分推断常用于近似计算因子图模型的后验分布。
在深度学习中,变分自编码器是一种常见的变分推断方法,用于学习数据的潜在表示。
在机器学习中,变分推断可以用于模型选择、参数估计和预测等任务。
5. 结论本文介绍了变分推断的基本原理和常用方法,以及其在机器学习中的应用。
变分推断具有广泛的应用价值,能够有效地处理大规模数据和复杂模型。
基于重要性采样的方法在统计学中的应用

基于重要性采样的方法在统计学中的应用重要性采样(Importance Sampling)是一种统计学中常用的方法,它能够提高原本难以获得准确估计的问题的估计精度。
在许多统计学领域中,重要性采样已被广泛应用,并取得了显著的效果。
下面将介绍一些基于重要性采样的方法在统计学中的应用。
一、蒙特卡洛模拟蒙特卡洛模拟是一种基于概率统计的计算方法,它通过模拟随机样本来近似计算数学问题。
在实际应用中,由于某些分布的随机样本很难抽取,常规的蒙特卡洛模拟方法短期内无法得到准确的结果。
这时,可以利用重要性采样的方法来提高模拟的精度。
通过选择一个合适的重要性分布,使得随机样本容易抽取,从而实现更准确的估计。
二、贝叶斯推断贝叶斯推断是一种基于贝叶斯定理的统计学方法,用于从观测样本更新对未知参数的估计。
在实际应用中,往往需要计算复杂的后验概率分布。
重要性采样可以通过引入一个合适的重要性分布,减少计算难度,提高后验概率的估计精度。
重要性采样在贝叶斯推理中的应用非常广泛,包括参数估计、模型选择等诸多方面。
三、稀有事件模拟稀有事件模拟是一种用于估计出现概率极小的事件发生的方法。
在许多实际问题中,例如金融风险管理、可靠性分析等,需要估计极端事件的概率。
这些事件的概率通常很小,传统的蒙特卡洛模拟方法需要大量样本才能得到准确估计。
重要性采样可以通过选取适当的重要性分布,聚焦于极端事件的发生,提高模拟的效率和准确性。
四、机器学习在机器学习领域,重要性采样被广泛应用于概率图模型、马尔可夫链蒙特卡洛方法等。
例如,在变分自编码器(Variational Autoencoders)中,为了估计样本的后验概率分布,需要进行重要性采样来计算变分下界。
此外,在强化学习中,重要性采样也可以用于计算动作值函数的估计,从而提高策略评估的效果。
总结起来,基于重要性采样的方法在统计学中有广泛的应用。
它可以提高蒙特卡洛模拟的精度、加速贝叶斯推断的计算、估计稀有事件的概率和优化机器学习算法等。
变分贝叶斯推断原理详解

变分贝叶斯推断原理详解贝叶斯推断是一种基于贝叶斯定理的统计方法,用于从已知的先验概率和观测数据中推断未知参数的后验概率分布。
传统的贝叶斯推断方法在处理复杂的问题时往往需要进行积分计算,这在实际应用中常常是难以实现的。
变分贝叶斯推断通过引入一种近似分布的方式,可以有效地解决这个问题。
变分贝叶斯推断的核心思想是假设待推断的概率分布可以通过一个参数化的分布来近似表示,这个参数化的分布称为变分分布。
通过调整变分分布的参数,使得该分布与真实的后验分布尽可能接近。
与传统的贝叶斯推断不同,变分贝叶斯推断要求我们选择一个合适的分布族,并通过最优化的方式来确定分布的参数。
为了理解变分贝叶斯推断的原理,我们首先需要介绍两个重要的概念:Kullback-Leibler散度和证据下界(ELBO)。
Kullback-Leibler散度是用于度量两个分布之间的差异的一种方法。
给定两个概率分布P和Q,它们之间的KL散度定义为:KL(P||Q) = ∫P(x) log(P(x)/Q(x)) dxKL散度是非负的,当且仅当P和Q完全相等时为0。
在变分贝叶斯推断中,我们希望通过选择合适的变分分布Q来最小化后验分布P与变分分布Q之间的KL 散度。
证据下界(ELBO)是在变分推断中起关键作用的一个概念。
ELBO可以看作是对数似然函数的下界,通过最大化ELBO,我们可以逼近真实后验分布的参数值。
ELBO由两部分组成,一部分是期望似然函数,另一部分是变分分布与先验分布之间的KL散度。
ELBO = E[log P(X|θ)] - KL(Q(θ)||P(θ))其中,P(X|θ)表示给定参数θ下观测数据X的似然函数,Q(θ)表示变分分布,P(θ)表示先验分布。
通过不断优化ELBO,我们可以逐步逼近真实的后验分布。
具体来说,变分贝叶斯推断可以分为以下几个步骤:1. 初始化变分分布的参数,可以选择一个简单的分布作为初始值,如高斯分布。
2. 在每个迭代步骤中,计算ELBO,并更新变分分布的参数。
一文看懂贝叶斯定理及应用(值得收藏)
一文看懂贝叶斯定理及应用(值得收藏)导读:在机器学习的一些主要任务中,贝叶斯模型是一种经典的简单学习模型。
本文介绍贝叶斯模型及贝叶斯定理。
作者:卢誉声来源:华章科技分类问题是一种经典的机器学习问题,而贝叶斯只是一种常见模型。
比如最朴素的分类模型和最容易理解的模型其实是决策树模型,这种模型比较接近我们的决策思维。
主要思路是根据与我们解决问题相关的多个因素逐一确定下一步的方案,整个决策过程就像一棵自顶向下的树一样,故名决策树。
如图2-1所示,这是一个人根据天气、温度、风况和气压几个因素决定是否去钓鱼的决策树。
▲图2-1 决策树示例图中矩形的节点是决策节点,节点之间连线上的是属性值,而圆形节点是结果节点。
构建完这个树模型之后我们就可以预测这个人是否会出门钓鱼了。
预测时,首先我们把数据输入到根节点。
其次,根据数据属性值来选择某个特定的分支,每选择一个子节点再根据该节点分支的属性值选择该节点的特定分支,直到递归遍历到叶子节点为止,就可以得到预测结果了。
这个模型比较符合我们解决问题的逻辑思维,易于理解,因此常常会用在专家系统中。
另外,这个模型需要存储的参数相对较少,预测耗时短,这也是它的优点。
但是决策树其实远不止这么简单,常用的决策树算法有ID3算法、C4.5算法、CART算法和随机森林等,由于本章重点不是决策树,因此这里就不过多阐述了,有兴趣的读者可以自行查阅相关资料。
现在让我们进入正题:贝叶斯模型。
贝叶斯思想的最初提出者如下图所示——18世纪英国数学家托马斯·贝叶斯(Thomas Bayes)。
贝叶斯模型的核心思想是贝叶斯定理,这源于他生前为解决一个“逆概”问题而写的一篇文章,而这篇文章是在他死后才由他的一位朋友发表出来的。
在贝叶斯写这篇文章之前,人们已经能够计算“正向概率”,如“假设袋子里面有N个白球,M个黑球,你伸手进去摸一次,摸出黑球的概率是多少”。
而逆向概率问题是相反的一类问题,比如“如果事先并不知道袋子里面黑白球的比例,而是闭着眼睛摸出一个(或好几个)球,观察这些取出来的球的颜色之后,我们如何推测此袋子里面的黑白球的比例?”贝叶斯定理的思想出现在18世纪,但真正大规模使用发生在计算机出现之后。
贝叶斯变分推断
贝叶斯变分推断贝叶斯变分推断是一种概率推断方法,它可以用于估计概率模型中的未知参数。
在贝叶斯统计中,我们希望通过观察到的数据来更新对参数的先验分布进行推断。
贝叶斯变分推断是一种近似推断方法,它通过寻找一个近似后验分布来近似地计算参数的后验分布。
贝叶斯变分推断的主要思想是通过将后验分布表示为一个参数化的分布族,并通过最小化与真实后验分布的差异来找到最佳的参数。
这种参数化的分布族通常被称为变分分布。
通过最小化差异,贝叶斯变分推断可以提供对参数的估计,同时还可以提供对估计不确定性的度量。
贝叶斯变分推断的步骤通常分为以下几个步骤:1. 定义模型:首先,我们需要定义一个概率模型,包括参数的先验分布和观测数据的条件分布。
这些分布通常可以通过专家知识或历史数据来确定。
2. 设定变分分布:然后,我们需要选择一个参数化的分布族来近似后验分布。
这个分布族的选择通常需要平衡模型的灵活性和计算的复杂性。
3. 最小化差异:接下来,我们需要通过最小化变分分布与真实后验分布的差异来找到最佳的变分分布参数。
这可以通过最大化变分下界(也称为证据下界)来实现。
4. 迭代优化:为了找到最佳的变分分布参数,通常需要使用迭代优化算法,如变分EM算法或坐标上升算法。
这些算法会在每个迭代步骤中更新变分分布参数,直到收敛为止。
贝叶斯变分推断的优点之一是它的计算效率相对较高,特别是与传统的马尔可夫链蒙特卡洛(MCMC)方法相比。
变分推断通常可以在较短的时间内得到结果,并且可以处理大规模的数据集。
此外,贝叶斯变分推断还提供了对参数估计的不确定性的度量,这对于决策和推断是非常有价值的。
然而,贝叶斯变分推断也有一些限制。
首先,变分推断是一种近似推断方法,它的结果受到变分分布的选择和参数化的限制。
如果选择的变分分布族不足够灵活,可能无法准确地近似后验分布。
其次,变分推断通常假设数据是独立同分布的,这对于一些数据集可能是不合适的。
最后,贝叶斯变分推断的收敛性也不是保证的,因此需要仔细检查收敛性和结果的稳定性。
数学家简介
托马斯贝叶斯 (Thomas Bayes,1720-1761)英国数学家. 1702年出生于伦敦,1761年4月7日逝世.1742年成为英国皇家学会会员. 后来成为了一名Presbyterianminister(长老会牧师).和他的同事们不同:他认为上帝的存在可以通过方程式证明.贝叶斯在数学方面主要研究概率论. 他首先将归纳推理法用于概率论基础理论,并创立了贝叶斯统计理论,对于统计决策函数、统计推断、统计的估算等做出了贡献. 1763年发表了这方面的论著,对于现代概率论和数理统计都有很重要的作用. 他对统计推理的主要贡献是使用了"逆概率"这个概念,并把它作为一种普遍的推理方法提出来. 贝叶斯的另一著作《机会的学说概论》发表于1758年. 贝叶斯所采用的许多术语被沿用至今. 虽然他看到了自己的两篇论文被发表了,但是于1763年发表在伦敦皇家学会哲学学报上的那一篇提出著名的贝叶斯公式的论文《论有关机遇问题的求解》(《Essay Toward Solving a Problem in the Doctrine of Chances》)却是在他死后的第三年才被发表.200多年后,经过多年的发展与完善,贝叶斯公式以及由此发展起来的一整套理论与方法,已经成为概率统计中的一个冠以“贝叶斯”名字的学派,他的这一理论照亮了今天的计算领域,成了21世纪计算机软件的理论基础,尤其是在数据管理软件领域.微软公司的Windows XP操作系统就可以看到贝叶斯定理的身影,其智能纠错系统就是建立在贝叶斯定理的基础上的;另外,该定理也是微软公司“以互联网为中心”的NET战略的理论基石.和传统的数据统计技术完全立足于“单纯、死板”的数据信息不同,以贝叶斯定理为理论基础的数据统计技术有机地将数据信息同真实世界的信息联系在一起.搜索巨人Google和Autonomy,一家出售信息恢复工具的公司,都使用了贝叶斯定理(Bayesian principles)为数据搜索提供近似的(但是技术上不确切)结果.迄今为止应用贝叶斯定理最成功的公司则当属位于剑桥的英国自动(Autonomy)软件公司. 该公司应用贝叶斯定理开发出一种大规模“无序型数据”检索、归类、整理系统软件. 所谓“无序型”数据,是指那些不适合进入井然有序的数据库的具有无数万亿字节的报告、电子邮件、发言、新闻稿、网页等等,贝叶斯理论已经成为垃圾邮件过滤系统的基础. 自动(Autonomy)软件公司的软件能够帮助人类对这些纷繁错杂、浩如烟海的无序型信息进行准确的检索、归类、储存以及分析等工作,并为有特殊需要的用户提供相关参考资料. 仅仅在四年的时间内,自动软件公司就获得了巨大的成功,其客户名单包括英国广播公司、通用汽车公司,Proctor& Gamble公司,以及美国国防部等,目前该公司市值高达50亿美元.研究人员还使用贝叶斯模型来判断症状和疾病之间的相互关系,创建个人机器人,开发能够根据数据和经验来决定行动的人工智能设备.贝叶斯理论是非常令人着迷的、强大的工具,当我们需要处理多个变量系统的时候尤其有用.正因为如此,它在自然科学及国民经济的众多领域中有着广泛应用.泊松(Poisson,1781—1840)法国数学家、力学家、物理学家.1781年6月21日生于法国卢瓦雷省皮蒂维耶,1840年4月25日卒于巴黎.泊松出生于一个普通人家.泊松先学习外科,由于缺乏外科手术所需的灵巧而放弃医学,1796年进入枫丹白露中心学校.1798年以第一名的成绩考入巴黎综合工科学校.拉格朗日(Lagrange)拉普拉斯(Laplace)对泊松透彻理解困难问题的能力留下深刻的印象.后来,他成了拉格朗日和拉普拉斯的朋友.泊松在1799—1800年关于方程论和贝祖(Bezout)定理的一篇论文中初露锋芒,表现了在数学分析上的才能.泊松于1800年毕业留校任辅导教师. 1802年,泊松在巴黎综合工科学校升任副教授,1806年接替傅里叶(Fourier)成为教授.1808年成为法国经度局的天文学家.1809年巴黎理学院成立,泊松出任该校力学教授.1815年,他兼任军事学校的主考官.翌年又兼任巴黎综合工科学校毕业生的主考官.1820年,泊松任大学皇家教育顾问.1812年泊松被选入法国科学院物理学部.1826年获彼得堡科学院名誉院士称号.1837年,泊松被封为男爵.泊松的科学生涯开始于研究微分方程及其在摆的运动和声学理论中的应用. 他工作的特色是应用数学方法研究各类物理问题,并由此得到数学上的发现. 泊松在数学上的研究涉及定积分、有限差分理论、偏微分方程、变分法、级数和概率论等许多方面,在物理上对行星运动理论、热物理、弹性理论、电磁理论、位势理论都有重要贡献. 一生共发表300多篇论著,所著两卷《力学教程》在很长的时期内被认为是标准的教科书.泊松在一般力学上的贡献涉及分析力学和天体力学等几个方面.他第一个用冲量分量形式撰写分析力学.求解哈密顿正则方程所用的一种数学符号,后来被称为泊松括号.他推广了拉格朗日和拉普拉斯有关行星轨道稳定性问题的研究结果,所建立的泊松方程成为星系动力学的基本方程之一.泊松还研究了地球转动对弹道曲线的影响等问题.泊松在固体力学上作过多方面的探讨,从理论上得到各向同性杆件受拉伸时横向与纵向弹性应变之比为一常数0.25.这就是有名的泊松比.泊松得到圆板弯曲和振动问题的解答和弹性球体径向自由振动的解答.在流体力学方面,他第一个完整地给出了说明粘性流体物理性质的本构关系,解决了无旋的空间绕球流动问题,推动了小振幅波理论的发展.泊松还将数学应用于物理学,涉及电、磁、热、声、光等许多方面.他把引力理论的泊松方程推广应用到电学和磁学的理论,为静电势理论的建立作出了贡献.泊松还研究热传导问题.《热学的数学理论》就是他在这方面的代表作.书中讨论了二维稳态热传导等问题.获得了泊松绝热方程.泊松晚年从事概率论研究,作出了重要贡献.与他通过力学和物理学问题研究数学的惯常做法不同,泊松是从法庭审判问题出发研究概率论的.泊松在《关于刑事案件和民事案件审判概率的研究》(1837)等著作中,提出了描述随机现象的一种常用的分布,即泊松分布.他是第一个沿着复平面上的路径实行积分的人.他给出了调和分析中的泊松求和公式.欧拉-马克劳林求和公式的余项也是由泊松首先加上去的.由于泊松研究的范围十分广泛而有成效,所以不少数学名词都与他的名字联系在一起.例如,在数学物理方面,有热传导问题中的泊松积分、波动方程柯西问题解的泊松公式、位势理论中的泊松方程等.在概率论方面,除泊松分布外,还有泊松变量、泊松过程、泊松试验、泊松大数定律等.将摄动函数展开成幂级数和三角级数的混合级数,就叫做泊松级数.有时甚至对完全不同的公式采用了同样的“泊松方程”的名称.泊松毕生从事数学的研究和教学.他说过,生活的乐趣就在于这两件事.费歇(1890-1962)英国统计学家创建了很多现代统计学的基础。
贝叶斯定理深入浅出
贝叶斯定理深入浅出贝叶斯定理是关于随机事件A和B的条件概率(或边缘概率)的一则定理。
其中P(A|B)是在B发生的情况下A发生的可能性。
贝叶斯定理也称贝叶斯推理,早在18世纪,英国学者贝叶斯(1702~1763)曾提出计算条件概率的公式用来解决如下一类问题:假设H[1],H[2]…,H[n]互斥且构成一个完全事件,已知它们的概率P(H[i]),i=1,2,…,n,现观察到某事件A与H[1],H[2]…,H[n]相伴随机出现,且已知条件概率P(A/H[i]),求P(H[i]/A)。
贝叶斯定理是关于随机事件A和B的条件概率(或边缘概率)的一则定理。
其中P(A|B)是在B发生的情况下A发生的可能性。
一、研究意义人们根据不确定性信息作出推理和决策需要对各种结论的概率作出估计,这类推理称为概率推理。
概率推理既是概率学和逻辑学的研究对象,也是心理学的研究对象,但研究的角度是不同的。
概率学和逻辑学研究的是客观概率推算的公式或规则;而心理学研究人们主观概率估计的认知加工过程规律。
贝叶斯推理的问题是条件概率推理问题,这一领域的探讨对揭示人们对概率信息的认知加工过程与规律、指导人们进行有效的学习和判断决策都具有十分重要的理论意义和实践意义。
二、定理定义贝叶斯定理也称贝叶斯推理,早在18世纪,英国学者贝叶斯(1702~1763)曾提出计算条件概率的公式用来解决如下一类问题:假设H[1],H[2]…,H[n]互斥且构成一个完全事件,已知它们的概率P(H),i=1,2,…,n,现观察到某事件A与H[,1],H[,2]…,H[,n]相伴随机出现,且已知条件概率P(A/H[,i]),求P(H[,i]/A)。
贝叶斯公式(发表于1763年)为: P(H/A)=P(H)*P(A│H)/{P(H[1])*P(A│H[1]) +P(H[2])*P(A│H[2])+…+P(H[n])*P(A│H[n])}这就是著名的“贝叶斯定理”,一些文献中把P(H[1])、P(H[2])称为基础概率,P(A│H[1])为击中率,P(A│H[2])为误报率。