人工智能原理教案03章 不确定性推理方法3.5 贝叶斯网络

合集下载

人工智能原理教案03章 不确定性推理方法3.5 贝叶斯网络

人工智能原理教案03章 不确定性推理方法3.5 贝叶斯网络

3.5 贝叶斯网络贝叶斯网络是一系列变量的联合概率分布的图形表示。

一般包含两个部分,一个就是贝叶斯网络结构图,这是一个有向无环图(DAG),其中图中的每个节点代表相应的变量,节点之间的连接关系代表了贝叶斯网络的条件独立语义。

另一部分,就是节点和节点之间的条件概率表(CPT),也就是一系列的概率值。

如果一个贝叶斯网络提供了足够的条件概率值,足以计算任何给定的联合概率,我们就称,它是可计算的,即可推理的。

3.5.1 贝叶斯网络基础首先从一个具体的实例(医疗诊断的例子)来说明贝叶斯网络的构造。

假设:命题S(moker):该患者是一个吸烟者命题C(oal Miner):该患者是一个煤矿矿井工人命题L(ung Cancer):他患了肺癌命题E(mphysema):他患了肺气肿命题S对命题L和命题E有因果影响,而C对E也有因果影响。

命题之间的关系可以描绘成如右图所示的因果关系网。

因此,贝叶斯网有时也叫因果网,因为可以将连接结点的弧认为是表达了直接的因果关系。

图3-5 贝叶斯网络的实例tp3_5_swf.htm图中表达了贝叶斯网的两个要素:其一为贝叶斯网的结构,也就是各节点的继承关系,其二就是条件概率表CPT。

若一个贝叶斯网可计算,则这两个条件缺一不可。

贝叶斯网由一个有向无环图(DAG)及描述顶点之间的概率表组成。

其中每个顶点对应一个随机变量。

这个图表达了分布的一系列有条件独立属性:在给定了父亲节点的状态后,每个变量与它在图中的非继承节点在概率上是独立的。

该图抓住了概率分布的定性结构,并被开发来做高效推理和决策。

贝叶斯网络能表示任意概率分布的同时,它们为这些能用简单结构表示的分布提供了可计算优势。

假设对于顶点x i,其双亲节点集为P ai,每个变量x i的条件概率P(x i|P ai)。

则顶点集合X={x1,x2,…,x n}的联合概率分布可如下计算:双亲结点。

该结点得上一代结点。

该等式暗示了早先给定的图结构有条件独立语义。

人工智能原理教案03章 不确定性推理方法3.1 概述

人工智能原理教案03章 不确定性推理方法3.1 概述

3.1 概述一个人工智能系统,由于知识本身的不精确和不完全,采用标准逻辑意义下的推理方法难以达到解决问题的目的。

对于一个智能系统来说,知识库是其核心。

在这个知识库中,往往大量包含模糊性、随机性、不可靠性或不知道等不确定性因素的知识。

为了解决这种条件下的推理计算问题,不确定性推理方法应运而生。

归纳起来,不确定性推理方法研究产生的原因大致如下:·很多原因导致同一结果如多种原因引起同一种疾病。

例如,发烧可能因为感冒,也可能因为得了肺炎,需要进一步的知识才能作出具体判断。

·推理所需的信息不完备如勘探得到的地质分析资料不完备。

·背景知识不足由于人类认识水平的客观限制,客观世界的很多知识仍不为人们所认知。

在智能系统中,表现为所处理的知识的背景知识不完备。

如疾病的发病原因不十分明确。

·信息描述模糊这种现象十分普遍。

如"他不高不矮","今天不冷不热"等等。

在这类描述中,通常无法以一个量化的标准来描述,所描述的事物通常处在一个大致的范围。

比如,认为"身高在165cm-174cm 之间"的男士符合"不高不矮"的描述。

·信息中含有噪声噪声的存在干扰了人们对本源信息的认知,从而加大了认知上的难度。

如语音信号、雷达信号中的噪音干扰带来的信息模糊。

·规划是模糊的当需要对某个问题域进行划分时,可能无法找到一个清晰的标准。

如根据市场需求情况调节公司产品的内容和数量。

·推理能力不足必须考虑到实现的可能性,计算复杂度,系统性能。

如计算机的实现能力,推理算法的规模扩大能力有限等。

·解题方案不唯一没有最优方案,只有相对较优方案。

不实施,不能做出最后判断。

不精确思维并非专家的习惯或爱好所至,而是客观现实的要求。

在人类的知识和思维行为中,精确性只是相对的,不精确性才是绝对的。

知识工程需要各种适应不同类的不精确性特点的不精确性知识描述方法和推理方法。

人工智能原理第3章逻辑系统-PPT精选

人工智能原理第3章逻辑系统-PPT精选
命题逻辑的语义与可满足性
• 研究命题逻辑的语义,即研究公式(公式 集)的真假赋值问题
• 真假赋值:真假赋值是以所有命题符号 的集合为定义域、以真假值{1,0}为值域 的函数。真假赋值v给公式A指派的值记 作Av
• 可满足性:是可满足的,当且仅当有真 假赋值v,使得v=1。此时称v满足。
29
第3章 逻辑系统
• 原子公式:命题语言中的一个表达式是 原子公式,当且仅当它是一个命题符号 / 原子公式也称为文字(包括正文字和负文 字)
9
第3章 逻辑系统
命题逻辑的合式公式
• 合式公式(well-formed formula),简称公 式,记作wff:一个表达式是一个公式, 当且仅当它能通过有限次地使用下述步 骤生成:
• 函数add(e1, e2)说明e1与e2相加的结果仍 是一个数
17
第3章 逻辑系统
一阶语言(1)
• 一阶语言L:是一阶逻辑使用的形式语言, 可以和任何结构(论域)没有联系,也可以 与某个结构有联系
• 与结构没有联系的一阶语言由8类符号组成:
(1)无限序列的个体符号(个体常量)
(2)无限序列的谓词符号,有确定的元数n≥1
• 给定了论域,就确定了谓词的真假值 • 一元谓词:个体的性质;二元谓词(多元谓
词):个体的关系 • 个体的位置—空位,具体化—构成意义完整
的语句 • 空位的数目—谓词的元数→几元谓词
13
第3章 逻辑系统
量词与变量
• 变量(变元):表示论域内的任意一个个体 / 常量(常元),表示确定的个体
• 量词与变量:量词用来表示谓词的判断特性 • 全称量词:对所有的x x P(x) • 存在量词:存在x x P(x) • 约束变量:、中x的变量,量词所管辖的

不确定性推理人工智能原理及其应PPT教案学习

不确定性推理人工智能原理及其应PPT教案学习
为在事件B发生的条件下事件A 的条件概率 。 例子
设样本空间D是扑克牌中的54张牌,即D={红桃A,方块A,黑桃A,梅花 A,红桃2,方块2,… ,小王,大王},且有以下两个事件
A={取花脸牌},B={取红桃牌},
求在事件B发生的条件下事件A发生的概率P(A|B)。
解:由于事件B已经发生,因此以下事件{取到红桃A;取到红桃2;取 到红桃3;… ;取到红桃K}中必有一个出现。
CF(H
,
E)
MB(H , 0
E)
0
P(H | E) P(H 1 P(H)
)
0
MD(H
,
E)
பைடு நூலகம்
P(H
) P(H P(H )
|
E)
若P(H | E) > P(H) 若P(H | E) P(H) 若P(H | E) < P(H)
分别解释CF(H,E)>0,CF(H,E)=0,CF(H,E)>0
第20页/共104页
第6页/共104页
7
6.1.2 不确定性推理的类型

框架推理


语义网络推理


确 定

常识推理…

确定性理论
推 理

基于概率的方法
主观Bayes方法
值 方
证据理论

模糊推理
第7页/共104页
8
第6章 不确定性推理
6.1 不确定性推理的基本概念 6.2 不确定性推理的概率论基础
6.2.1 样本空间和随机事件 6.3.2 事件的概率 6.3.3 全概率公式和Bayes公式
第16页/共104页
17
6.3.1 可信度的概念

人工智能中的不确定性估计

人工智能中的不确定性估计

人工智能中的不确定性估计是一个重要的研究领域,它涉及到如何评估人工智能系统在处理不确定信息时的表现。

不确定性估计可以帮助我们更好地理解人工智能系统的性能,并为其提供更准确的决策支持。

以下是一些人工智能中不确定性估计的方法:
1. 概率模型:概率模型是一种常见的不确定性估计方法,它使用概率分布来描述输入数据的不确定性。

这些模型通常使用贝叶斯网络、隐马尔可夫模型等工具来建模数据的不确定性。

2. 随机森林和集成学习:随机森林和集成学习方法通过组合多个预测模型的输出来提高不确定性估计的准确性。

这些方法通常使用多个决策树或神经网络来生成预测,并使用投票或加权平均等方法来组合它们的输出。

3. 贝叶斯推理:贝叶斯推理是一种基于概率的方法,它使用先验知识来更新对不确定性的认识。

这种方法通常用于处理因果推理和异常检测等问题。

4. 深度强化学习:深度强化学习使用深度神经网络来学习如何做出最优决策,同时考虑到各种不确定性因素。

这种方法通常用于处理具有挑战性的实时决策问题,如自动驾驶和机器人控制。

5. 贝叶斯近似方法:贝叶斯近似方法是一种基于贝叶斯统计的方法,它使用简单的模型来近似复杂的模型,并估计其不确定性。

这种方法通常用于处理大规模数据集和复杂模型的不确定性估计。

总之,人工智能中的不确定性估计是一个重要的研究领域,涉及多种方法和技术。

这些方法和技术可以帮助我们更好地理解人工智能系统的性能,并为其提供更准确的决策支持。

AI 教程集合

AI 教程集合

确定性方法
理论基础
以定量法为工具,比较法为原则的相对确认理论。 采用此方法的MYCIN系统的诊断结果不是只给出一 个最可信结论及其可信度,而是给出可信度较高的 前几位,供人们比较选用。
规则
规则的不确定性度量 证据(前提)的不确定性度量。 推理计算。
确定性方法
理论基础
以定量法为工具,比较法为原则的相对确认理论。 采用此方法的MYCIN系统的诊断结果不是只给出一 个最可信结论及其可信度,而是给出可信度较高的 前几位,供人们比较选用。
主观贝叶斯方法(推理计算3)
两个证据时:
P( A1 A2 | A' ) min P( A1 | A' ), P( A2 | A' ) P( A1 A2 | A' ) maxP( A1 | A' ), P( A2 | A' )
主观贝叶斯方法
主观Bayes方法的评价
优点:
计算方法直观、明了。
~ A对B没影响 ~ A支持 B ~ A不支持 B
,且必须满足:
主观贝叶斯方法(规则的不确定性)
LS、LN≥0,不独立。 LS, LN不能同时 >1或 <1 LS, LN可同时=1
主观贝叶斯方法(证据A的不确定性)
P(A)或O(A)表示证据A的不确定性
0, 当A假 P( A) O( A) , 当A真 1 P( A) (0,), 一般情况
j1
主观贝叶斯方法
思路
先定好应该怎么办,再凑公式。主要是避开P(A| B) 的计算。
规则的不确定性
定义:
P (A | B) LS P (A |~ B)
表示A为真时,对B的影响。(规则成立的充分性)

人工智能课程目录[精品]

人工智能课程目录[精品]

◇第一章人工智能概述- 课前索引- 1.1 人工智能的定义- 1.2 人工智能的发展史- 1.3 人工智能成功的实例- 1.4 人工智能的研究内容- 1.5 人工智能研究的特点- 1.6 人工智能相关文献及网站介绍- 章节小结- 课后思考题◇第二章归结推理方法- 课前索引- 2.1 归结原理概述- 2.2 命题逻辑的归结- 2.3 谓词逻辑归结法基础- 2.4 归结原理- 2.5 归结过程控制策略- 2.6 Herbrand定理- 章节小结- 课后思考题- 课后习题◇第三章不确定性推理方法- 课前索引- 3.1 概述- 3.2 确定性方法- 3.3 主观Bayes方法- 3.4 证据理论(D-S Theory)- 3.5 贝叶斯网络- 章节小结- 课后思考题- 课后习题◇第四章知识表示- 课前索引- 4.1 概述- 4.2 表示观- 4.3 逻辑表示法- 4.4 产生式表示法- 4.5 语义网络表示法- 4.6 框架表示法- 4.7 面向对象的表示法- 4.8 直接型知识表示方法- 4.9 混合型知识表示方法- 章节小结- 课后思考题- 课后习题◇第五章机器学习- 课前索引- 5.1 概述- 5.2 机器学习的分类与基本系统结构- 5.3 符号学习方法- 5.4 实例学习方法- 章节小结- 课后思考题- 课后习题◇第六章神经网络- 课前索引- 6.1 概述- 6.2 前馈型人工神经网络- 6.3 反馈神经网络- 6.4 自组织竞争人工神经网络- 6.5 神经网络在模式识别中的应用- 章节小结- 课后思考题◇第七章自然语言处理- 课前索引- 7.1 概述- 7.2 句法分析- 7.3 词性标注- 章节小结- 课后思考题- 课后习题◇第八章智能体- 课前索引- 8.1 智能体概述- 8.2 多智能体- 8.3 智能体之间的通讯- 8.4 智能体体系结构- 章节小结- 课后思考题。

逻辑推理 _人工智能专业课件

逻辑推理 _人工智能专业课件
例如,用P(weather)表示天气的概率:
– P(weather = sunny)=0.7 – P(weather = rain)=0.2 – P(weather = cloudy)=0.08 – P(weather = snow)=0.02
先验概率分布:
– P(weather )=<0.7, 0.2, 0.08, 0.02>
Total number of parameters is linear in n
贝叶斯网络
1 贝叶斯网络概述 2 贝叶斯网络的语义 3 贝叶斯网络中的精确推理 4 贝叶斯网络的近似推理
人工智能
不确定性推理(1)
不确定环境下的行动 概率公理 使用全概率分布进行推理 独立性 贝叶斯法则及其应用
定义行动 At = 航班起飞前 t 分钟启程前往机场; 问: At 能不能及时使agent赶上飞机?
– A180 是一个可靠的行动,如果所选路线上没有交通事故、没有交通 管制、汽车没有出故障、没有沙尘暴,等等,等等。
失败的原因:
– 懒惰(laziness): failure to enumerate exceptions, qualifications, etc.
– 无知(ignorance): lack of relevant facts, initial conditions, etc.
基本思想:
– 精确度和有效性的折中
15、一个人炫耀什么,说明他内心缺 少什么 。。2021年8月 2021/8/102021/8/102021/8/108/10/2021
16、业余生活要有意义,不要越轨。2021/8/102021/8/10August 10, 2021
17、一个人即使已登上顶峰,也仍要 自强不 息。2021/8/102021/8/102021/8/102021/8/10
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

3.5贝叶斯网络贝叶斯网络是一系列变量的联合概率分布的图形表示。

一般包含两个部分,一个就是贝叶斯网络结构图,这是一个有向无环图(DAG),其中图中的每个节点代表相应的变量,节点之间的连接关系代表了贝叶斯网络的条件独立语义。

另一部分,就是节点和节点之间的条件概率表(CPT),也就是一系列的概率值。

如果一个贝叶斯网络提供了足够的条件概率值,足以计算任何给定的联合概率,我们就称,它是可计算的,即可推理的。

3.5.1贝叶斯网络基础首先从一个具体的实例(医疗诊断的例子)来说明贝叶斯网络的构造。

假设:命题S(moker):该患者是一个吸烟者命题C(oal Miner):该患者是一个煤矿矿井工人命题L(ung Cancer):他患了肺癌命题E(mphysema):他患了肺气肿命题S对命题L和命题E有因果影响,而C对E也有因果影响。

命题之间的关系可以描绘成如右图所示的因果关系网。

因此,贝叶斯网有时也叫因果网,因为可以将连接结点的弧认为是表达了直接的因果关系。

图3-5贝叶斯网络的实例tp3_5_swf.htm图中表达了贝叶斯网的两个要素:其一为贝叶斯网的结构,也就是各节点的继承关系,其二就是条件概率表CPT。

若一个贝叶斯网可计算,则这两个条件缺一不可。

贝叶斯网由一个有向无环图(DAG)及描述顶点之间的概率表组成。

其中每个顶点对应一个随机变量。

这个图表达了分布的一系列有条件独立属性:在给定了父亲节点的状态后,每个变量与它在图中的非继承节点在概率上是独立的。

该图抓住了概率分布的定性结构,并被开发来做高效推理和决策。

贝叶斯网络能表示任意概率分布的同时,它们为这些能用简单结构表示的分布提供了可计算优势。

假设对于顶点x i,其双亲节点集为P ai,每个变量x i的条件概率P(x i|P ai)。

则顶点集合X={x1,x2,…,x n}的联合概率分布可如下计算:双亲结点。

该结点得上一代结点。

该等式暗示了早先给定的图结构有条件独立语义。

它说明贝叶斯网络所表示的联合分布作为一些单独的局部交互作用模型的结果具有因式分解的表示形式。

从贝叶斯网的实例图中,我们不仅看到一个表示因果关系的结点图,还看到了贝叶斯网中的每个变量的条件概率表(CPT)。

因此一个完整的随机变量集合的概率的完整说明不仅包含这些变量的贝叶斯网,还包含网中变量的条件概率表。

图例中的联合概率密度:P(S,C,L,E)=P(E|S,C)*P(L|S)*P(C)*P(S)推导过程:P(S,C,L,E)=P(E|S,C,L)*P(L|S,C)*P(C|S)*P(S)(贝叶斯定理)=P(E|S,C)*P(L|S)*P(C)*P(S)即:P(E|S,C,L)=P(E|S,C),E与L无关P(L|S,C)=P(L|S)L与C无关P(C|S)=P(C)C与S无关以上三条等式的正确性,可以从贝叶斯网的条件独立属性推出:每个变量与它在图中的非继承节点在概率上是独立的。

相比原始的数学公式:P(S,C,L,E)=P(E|S,C,L)*P(L|S,C)*P(C|S)*P(S)推导过程:由贝叶斯定理,P(S,C,L,E)=P(E|S,C,L)*P(S,C,L)再由贝叶斯定理P(S,C,L)=P(L|S,C)*P(S,C)同样,P(S,C)=P(C|S)*P(S)以上几个等式相乘即得原式。

显然,简化后的公式更加简单明了,计算复杂度低很多。

如果原贝叶斯网中的条件独立语义数量较多,这种减少更加明显。

贝叶斯网络是一系列变量的联合概率分布的图形表示。

这种表示法最早被用来对专家的不确定知识编码,今天它们在现代专家系统、诊断引擎和决策支持系统中发挥了关键作用。

贝叶斯网络的一个被经常提起的优点是它们具有形式的概率语义并且能作为存在于人类头脑中的知识结构的自然映像。

这有助于知识在概率分布方面的编码和解释,使基于概率的推理和最佳决策成为可能。

3.5.2贝叶斯网的推理模式在贝叶斯网中有三种重要的推理模式,因果推理(由上向下推理),诊断推理(自底向上推理)和辩解。

3.5.2.1因果推理让我们通过概述的实例来说明因果推理得过程。

给定患者是一个吸烟者(S),计算他患肺气肿(E)的概率P(E|S)。

S称作推理的证据,E叫询问结点。

首先,我们寻找E的另一个父结点(C),并进行概率扩展P(E|S)=P(E,C|S)+P(E,~C|S);即,吸烟的人得肺气肿的概率为吸烟得肺气肿又是矿工的人的概率与吸烟得肺气肿不是矿工的人的概率之和,也就是全概率公式。

然后利用Bayes定理:P(E|S)=P(E|C,S)*P(C|S)+P(E|~C,S)*P(~C|S);公式解释:P(E,C|S)=P(E,C,S)/P(S)=P(E|C,S)*P(C,S)/P(S)(贝叶斯定理)=P(E|C,S)*P(C|S)(反向利用贝叶斯定理)同理可以得出P(E,~C|S)的推导过程。

需要寻找该表达式的双亲结点的条件概率,重新表达联合概率(指P(E,C|S),P(E,~C|S))。

在图中,C和S并没有双亲关系,符合条件独立条件:P(C|S)=P(C),P(~C|S)=P(~C),由此可得:P(E|S)=P(E|S,C)*P(C)+P(E|~C,S)*P(~C)如果采用概述中的例题数据,则有P(E|S)=0.9*0.3+0.3*(1-0.3)=0.48从这个例子中,不难得出这种推理的主要操作:1)按照给定证据的V和它的所有双亲的联合概率,重新表达给定证据的询问结点的所求条件概率。

2)回到以所有双亲为条件的概率,重新表达这个联合概率。

3)直到所有的概率值可从CPT表中得到,推理完成。

3.5.2.2诊断推理同样以概述中的例题为例,我们计算"不得肺气肿的不是矿工"的概率P(~C|~E),即在贝叶斯网中,从一个子结点计算父结点的条件概率。

也即从结果推测一个起因,这类推理叫做诊断推理。

使用Bayes公式就可以把这种推理转换成因果推理。

P(~C|~E)=P(~E|~C)*P(~C)/P(~E),从因果推理可知P(~E|~C)=P(~E,S|~C)+P(~E,~S|~C)=P(~E|S,~C)*P(S)+P(~E|~S,~C)*P(~S)=(1-0.3)*0.4+(1-0.10)*(1-0.4)=0.82;由此得:P(~C|~E)=P(~E|~C)*P(~C)/P(~E)(贝叶斯公式)=0.82*(1-0.3)/P(~E)=0.574/P(~E)同样的,P(C|~E)=P(~E|C)*P(C)/P(~E)=0.34*0.3/P(~E)=0.102/P(~E)由于全概率公式:P(~C|~E)+P(C|~E)=1代入可得P(~E)=0.676所以,P(~C|~E)=0.849这种推理方式主要利用Bayes规则转换成因果推理。

3.5.2.3辩解如果我们的证据仅仅是~E(不是肺气肿),象上述那样,我们可以计算~C患者不是煤矿工人的概率。

但是如果也给定~S(患者不是吸烟者),那么~C也应该变得不确定。

这种情况下,我们说~S解释~E,使~C变得不确定。

这类推理使用嵌入在一个诊断推理中的因果推理。

作为思考题,读者可以沿着这个思路计算上式。

在这个过程中,贝叶斯规则的使用,是辩解过程中一个重要的步骤。

3.5.3D分离在本节最开始的贝叶斯网图中,有三个这样的结点:S,L,E。

从直观来说,L的知识(结果)会影响S的知识(起因),S 会影响E的知识(另一个结果)。

因此,在计算推理时必须考虑的相关因素非常多,大大影响了算法的计算复杂度,甚至可能影响算法的可实现性。

但是如果给定原因S,L并不能告诉我们有关E的更多事情。

即对于S,L和E是相对独立的,那么在计算S和L的关系时就不用过多地考虑E,将会大大减少计算复杂度。

这种情况下,我们称S能D分离L和E。

D分离是一种寻找条件独立的有效方法。

如下图,对于给定的结点集ε,如果对贝叶斯网中的结点V i 和V j之间的每个无向路径,在路径上有某个结点V b,如果有属性:1)V b在ε中,且路径上的两条弧都以V b为尾(即弧在V b 处开始(出发))2)V b在ε中,路径上的一条弧以V b为头,一条以V b为尾3)V b和它的任何后继都不在ε中,路径上的两条弧都以V b 为头(即弧在V b处结束)则称V i和V j被V b结点阻塞。

结论:如果V i和V j被证据集合ε中的任意结点阻塞,则称V i和V j是被ε集合D分离,结点V i和V j条件独立于给定的证据集合ε,即P(V i|V j,ε)=P(V i|ε)P(V j|V i,ε)=P(V j|ε)表示为:I(V i,V j|ε)或I(V j,V i|ε)无向路径:DAG图是有向图,所以其中的路径也应该是有向路径,这里所指的无向路径是不考虑DAG图中的方向性时的路径。

条件独立:如具有以上三个属性之一,就说结点V i和V j条件独立于给定的结点集ε。

阻塞:给定证据集合ε,当上述条件中的任何一个满足时,就说V b阻塞相应的那条路径。

D分离:如果V i和V j之间所有的路径被阻塞,就叫证据集合ε可以D分离V i和V j注意:在论及路径时,是不考虑方向的;在论及"头"和"尾"时,则必须考虑弧的方向。

"头"的含义是箭头方向(有向弧)的终止点,"尾"的含义是箭头方向(有向弧)的起始点。

图3-6通过阻塞结点的条件独立t3-7_swf.htm这一分析过程从上图中可以直观的看出来。

D分离的概念也可应用于集合。

给定证据集合ε,如果集合εi中所有结点和集合εj中的所有结点之间的每条无向路径被阻塞,则称εi和εj被ε集合D分离。

回到最开始的医疗诊断实例:为简单起见,选择证据集合ε为单个结点集合。

对于给定的结点S,结点E阻塞了结点C和结点L之间的路径,因此C和L是条件独立的,有I(C,L|S)成立。

而对于给定结点E,S和L之间找不到阻塞结点。

因此,S 和L不是条件独立的。

即使使用了D分离,一般地讲,在贝叶斯网中,概率推理仍是NP难题。

然而,有些简化能在一个叫Polytree的重要网络分类中使用。

一个Polytree网是一个DAG,在该DAG的任意两个结点间,顺着弧的每一个方向只有一条路径。

如图就是一个典型的Polytree。

图3-7Polytreet3-7_swf.htmD分离的实质就是寻找贝叶斯网中的条件独立语义,以简化推理计算。

总结本节就Bayes网络的基本问题进行了阐述,着重点在推理计算上。

其本质就是通过各种方法寻找网络中的条件独立性,达到减少计算量和复杂性的目的。

这些都只是粗浅的描述,进一步的学习,请参考相应的参考书的"Polytree的概率推理"和"Bayes网的学习和动作"等章节,其中有很详细的阐述。

相关文档
最新文档