ai7不确定性推理_tmp

合集下载

人工智能不确定性推理部分参考答案

人工智能不确定性推理部分参考答案

不确定性推理部分参考答案1.设有如下一组推理规则:r1: IF E1THEN E2 (0.6)r2: IF E2AND E3THEN E4 (0.7)r3: IF E4THEN H (0.8)r4: IF E5THEN H (0.9)且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。

求CF(H)=?解:(1) 先由r1求CF(E2)CF(E2)=0.6 × max{0,CF(E1)}=0.6 × max{0,0.5}=0.3(2) 再由r2求CF(E4)CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}=0.7 × max{0, min{0.3, 0.6}}=0.21(3) 再由r3求CF1(H)CF1(H)= 0.8 × max{0,CF(E4)}=0.8 × max{0, 0.21)}=0.168(4) 再由r4求CF2(H)CF2(H)= 0.9 ×max{0,CF(E5)}=0.9 ×max{0, 0.7)}=0.63(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H)CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H)=0.6922 设有如下推理规则r1: IF E1THEN (2, 0.00001) H1r2: IF E2THEN (100, 0.0001) H1r3: IF E3THEN (200, 0.001) H2r4: IF H1THEN (50, 0.1) H2且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知:P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36请用主观Bayes方法求P(H2|S1, S2, S3)=?解:(1) 由r1计算O(H1| S1)先把H1的先验概率更新为在E1下的后验概率P(H1| E1)P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1)=(2 × 0.091) / ((2 -1) × 0.091 +1)=0.16682由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))= 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6)=0.091 + 0.18955 × 0.24 = 0.136492O(H1| S1) = P(H1| S1) / (1 - P(H1| S1))= 0.15807(2) 由r2计算O(H1| S2)先把H1的先验概率更新为在E2下的后验概率P(H1| E2)P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)=(100 × 0.091) / ((100 -1) × 0.091 +1)=0.90918由于P(E2|S2)=0.68 > P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2)P(H1| S2) = P(H1) + ((P(H1| E2) – P(H1)) / (1 - P(E2))) × (P(E2| S2) – P(E2))= 0.091 + (0.90918 –0.091) / (1 – 0.6)) × (0.68 – 0.6)=0.25464O(H1| S2) = P(H1| S2) / (1 - P(H1| S2))=0.34163(3) 计算O(H1| S1,S2)和P(H1| S1,S2)先将H1的先验概率转换为先验几率O(H1) = P(H1) / (1 - P(H1)) = 0.091/(1-0.091)=0.10011再根据合成公式计算H1的后验几率O(H1| S1,S2)= (O(H1| S1) / O(H1)) × (O(H1| S2) / O(H1)) × O(H1)= (0.15807 / 0.10011) × (0.34163) / 0.10011) × 0.10011= 0.53942再将该后验几率转换为后验概率P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2))= 0.35040(4) 由r3计算O(H2| S3)先把H2的先验概率更新为在E3下的后验概率P(H2| E3)P(H2| E3)=(LS3× P(H2)) / ((LS3-1) × P(H2)+1)=(200 × 0.01) / ((200 -1) × 0.01 +1)=0.09569由于P(E3|S3)=0.36 < P(E3),使用P(H | S)公式的前半部分,得到在当前观察S3下的后验概率P(H2| S3)和后验几率O(H2| S3)P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)由当E3肯定不存在时有P(H2 | ¬ E3) = LN3× P(H2) / ((LN3-1) × P(H2) +1)= 0.001 × 0.01 / ((0.001 - 1) × 0.01 + 1)= 0.00001因此有P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)=0.00001+((0.01-0.00001) / 0.6) × 0.36=0.00600O(H2| S3) = P(H2| S3) / (1 - P(H2| S3))=0.00604(5) 由r4计算O(H2| H1)先把H2的先验概率更新为在H1下的后验概率P(H2| H1)P(H2| H1)=(LS4× P(H2)) / ((LS4-1) × P(H2)+1)=(50 × 0.01) / ((50 -1) × 0.01 +1)=0.33557由于P(H1| S1,S2)=0.35040 > P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2)P(H2| S1,S2) = P(H2) + ((P(H2| H1) – P(H2)) / (1 - P(H1))) × (P(H1| S1,S2) – P(H1))= 0.01 + (0.33557 –0.01) / (1 – 0.091)) × (0.35040 – 0.091)=0.10291O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2))=0.10291/ (1 - 0.10291) = 0.11472(6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3)先将H2的先验概率转换为先验几率O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010再根据合成公式计算H1的后验几率O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2)) × (O(H2| S3) / O(H2)) ×O(H2)= (0.11472 / 0.01010) × (0.00604) / 0.01010) × 0.01010=0.06832再将该后验几率转换为后验概率P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3))= 0.06832 / (1+ 0.06832) = 0.06395可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

人工智能导论 第四章不确定性推理

人工智能导论 第四章不确定性推理

由Bayes公式得:
P(H|E)=P(E|H)×P(H)/P(E)
(1)
P(¬H|E)=P(E|¬H)×P(¬H)/P(E)
(2)
(1)式除以(2)式得:
P(H|E)/P(¬H|E)=P(E|H)/P(E|¬H)×P(H)/P(¬H)
由LS和几率函数的定义得: Θ(H|E)=LS×Θ(H)

29
P(H|E)=LS×P(H)/[(LS-1)×P(H)+1]
对于事件A,m=2,所以P(A) = m/n = 2/7 对于事件B,m=3,所以P(B) = m/n = 3/7
11
• 统计概率
当试验次数足够多时,一个事件(A)发生的次数m 与试验的总次数n之比:
fn(A)=m/n 在一个常数p(0≤p≤1)附近摆动,并稳定于p。
• 定义4.2 在同一组条件下所作的大量重复试验中,
n
P(Em | Hi )
P(H j ) P(E1 | H j ) P(E2 | H j ) P(Em | H j )
j 1
, i 1, 2,..., n
21
例. 设H1,H2,H3分别是三个结论,E是支持这些结论的证据。 已知:
P(H1)=0.3,
P(H2)=0.4,
P(H3)=0.5
递给最终结论。 (5) 结论不确定性的合成
用不同知识进行推理得到了相同结论,但不确 定性的程度却不同。此时,需要用合适的算法 对它们进行合成。
7
• 关于不确定性推理方法的研究沿着两条不同的路 线发展。
• 一、模型法:
– 在推理一级上扩展确定性推理。其特点是把不确定的 证据和不确定的知识分别与某种度量标准对应起来, 并且给出更新结论不确定的算法。这类方法与控制策 略一般无关,即无论用何种控制策略,推理的结果都 是唯一的。模型方法分为:

人工智能中确定性与不确定性之间是如何转化的?

人工智能中确定性与不确定性之间是如何转化的?

人工智能中确定性与不确定性之间是如何转化的?人工智能(AI)是模拟人类智能的一种技术,可以用来解决各种问题。

但是,由于数据存在不确定性和误差,所以在AI中存在着确定性和不确定性之间的相互转化。

本文将介绍AI中确定性和不确定性的概念、影响、转化方法以及应用。

首先,确定性是指具有确定结果的情况,而不确定性是指缺乏确定性或预测结果的可能性或概率。

例如,AI中的决策树和规则系统是确定性算法,而神经网络和深度学习是不确定性算法。

其次,不确定性会影响AI的准确性和可靠性。

在面对未知数据时,不确定性会增加AI的错误率。

因此,AI需要处理不确定性,以提高预测准确率。

例如,通过使用概率方法和专家系统,可以降低不确定性。

随着AI的发展,确定性和不确定性之间的相互转化变得越来越重要。

一种基本的转换方法是将不确定性转换为确定性。

例如,可以通过将不确定的输入数据转换为确定的输出,来减少不确定性。

此外,可以通过数据预处理、数据挖掘和特征工程来降低数据的不确定性。

另一种转换方法是将确定性转换为不确定性。

通过在AI算法中增加随机性,可以将确定性转换为不确定性。

例如,使用蒙特卡罗方法和随机游走,可以增加AI的不确定性,并提供更准确的预测结果。

在实际应用中,确定性和不确定性之间的相互转化具有广泛的应用。

例如,在金融风险管理中,可以使用蒙特卡罗方法将确定性数据转换为不确定性数据,来预测金融市场的风险。

在医学诊断中,可以使用概率模型来处理不确定性数据,提高诊断准确率。

综上所述,AI中确定性和不确定性之间存在着相互转化的关系。

在应对未知数据时,AI需要处理不确定性,并通过相应的转化方法来提高预测准确率。

将确定性和不确定性之间的转化应用于实际问题中,可以提高决策的正确性和可靠性。

如何应对AI技术中的误差和不确定性

如何应对AI技术中的误差和不确定性

如何应对AI技术中的误差和不确定性在当今数字化时代,人工智能(AI)技术的应用已经渗透到各个领域,包括医疗保健、金融服务、交通运输等。

然而,AI技术并非完美无缺,存在着一定程度上的误差和不确定性。

为了确保AI系统的可靠性和安全性,我们需要采取一系列的措施来应对这些问题。

I. 理解AI技术中的误差来源事实上,任何一个AI系统都会存在误差和不确定性。

这些误差可以归因于多个因素:1. 数据质量:尽管现在数据收集越来越多,但其中可能存在有噪声或者缺失值的情况。

这些错误或者缺失信息可能会导致模型训练出现偏见。

2. 模型架构:选择合适的模型结构是关键步骤之一。

不同类型的模型适用于不同类型的问题,并且每种模型都有其局限性。

如果使用了一个错误或者过于简化的模型,则结果很可能会出现较大偏差。

3. 参数设置:参数设置相当重要,因为它们可以直接影响到推断结果。

如果某些参数设置不合理,那么推断的结果就会存在较大误差。

II. 采取措施降低误差和不确定性虽然无法完全消除AI技术中的误差和不确定性,但我们可以采取一些措施来减少其影响:1. 数据预处理:在训练模型之前,对数据进行预处理是至关重要的一步。

这可能包括去除噪声、填充缺失值、平衡样本等。

通过优化数据质量,可以减少模型在推断时产生的误差。

2. 交叉验证:使用交叉验证技术可以有效评估模型的性能,并优化模型参数以降低误差。

交叉验证将数据集划分为多个子集,在训练过程中轮流使用子集作为验证集,从而增加了对模型表现的整体把握。

3. 集成方法:利用多个模型进行组合(例如投票或平均)可以减小单个模型带来的错误。

不同模型有不同的偏见和局限性,通过融合它们可以达到更准确的结果。

4. 可解释性分析:在AI系统中加入可解释性分析可以帮助我们理解和识别出错误来源。

通过了解模型决策的依据,我们可以检测并排除可能存在的误差。

III. 持续监控和更新AI系统应对AI技术中的误差和不确定性是一个持续不断的过程。

人工智能—不确定性知识表示和推理

人工智能—不确定性知识表示和推理

我们知道,人们通常所使用的逻辑是二值逻辑。即对一个 命题来说, 它必须是非真即假,反之亦然。但现实中一句话的 真假却并非一定如此, 而可能是半真半假, 或不真不假,或者 真假一时还不能确定等等。这样, 仅靠二值逻辑有些事情就无 法处理,有些推理就无法进行。于是, 人们就提出了三值逻辑、 四值逻辑、多值逻辑乃至无穷值逻辑。例如, 模糊逻辑就是一 种无穷值逻辑。下面我们介绍一种三值逻辑, 称为Kleene三值 逻辑。
图 8-1 程度语义网示例
5.
含有程度语言值的规则称为程度规则。
n
i1
(Oi, Fi, (LVi, xi)) → (O, F, (LV, D(x1, x2,…, xn)))
(8-2)
其中,Oi, O表示对象,Fi, F表示特征,LVi, LV表示语言特征值, x, D(x1, x2,…, xn )表示程度,D(x1, x2,…, xn )为x1, x2,…, xn 的函数。 我们称其为规则的程度函数。
(<语言值>, <程度>) 可以看出, 程度语言值实际是通常语言值的细化, 其中的 <程度>一项是对对象所具有的属性值的精确刻画。 至于程度 如何取值, 可因具体属性和属性值而定。例如可先确定一个标 准对象, 规定其具有相关属性值的程度为1, 然后再以此标准 来确定其他对象所具有该属性值的程度。这样, 一般来说, 程
人工智能—不确定性知识表 示和推理
8.1 不确定性处理概述
8.1.1 不确定性及其类型 1. (狭义)
不确定性(uncertainty)就是一个命题(亦即所表示的事 件)的真实性不能完全肯定, 而只能对其为真的可能性给出某 种估计。 例如:
如果乌云密布并且电闪雷鸣, 则很可能要下暴雨。 如果头痛发烧, 则大概是患了感冒。

人工智能第五章不确定性推理

人工智能第五章不确定性推理

若二事件AB互斥,即AB=φ ,则

P( A B) P( A) P( B) 以上三条基本规定是符合常识的。
概率论基础(概率性质 )

定义:设{An, n=1, 2, …}为一组有限或可列无 穷多个事件,两两不相交,且 An ,则称事 n 件族{An, n=1, 2, …}为样本空间Ω 的一个完备 事件族,又若对任意事件B有BAn=An或φ , n=1, 2, …,则称{An, n=1, 2, …}为基本事件族。

概述-表示的3方面问题
(1) 数值方法 (1) 数值方法
基于概率的方法 依据概率论的有 关理论发展起来 的方法
模糊推理 依据模糊理论发 展起来的方法
概述-表示的3方面问题
纯概率方法虽然有严 密的理论依据,但它 通常要求给出事件的 先验概率和条件概率 ,而这些数据又不易 获得,因此其应用受 到了限制。为了解决 这个问题,人们在概 率理论的基础上发展 起来了一些新的方法 及理论。

任意两个事件不一定会是上述几种关系中的一种。
概率论基础(事件间的关系与运算 )

设A,B,A1,A2,…An为一些事件,它们 有下述的运算:

交:记C=“A与B同时发生”,称为事件A与B C, 的 交 , C={ω |ω ∈A 且 ω ∈B} A记B作 或C=AB。 n
类似地用 Ai 表示事件“n个事件A1, i 1 A2, …An同时发生”。
B
R4
f4 f3
R3
B2
R1 f1 OR R2
B1
f2 AND
A1
A2
A3
概述-表示的3方面问题

语义问题

如何解释表示和计算的含义,目前多用概率方法。

人工智能中的不确定性估计

人工智能中的不确定性估计是一个重要的研究领域,它涉及到如何评估人工智能系统在处理不确定信息时的表现。

不确定性估计可以帮助我们更好地理解人工智能系统的性能,并为其提供更准确的决策支持。

以下是一些人工智能中不确定性估计的方法:
1. 概率模型:概率模型是一种常见的不确定性估计方法,它使用概率分布来描述输入数据的不确定性。

这些模型通常使用贝叶斯网络、隐马尔可夫模型等工具来建模数据的不确定性。

2. 随机森林和集成学习:随机森林和集成学习方法通过组合多个预测模型的输出来提高不确定性估计的准确性。

这些方法通常使用多个决策树或神经网络来生成预测,并使用投票或加权平均等方法来组合它们的输出。

3. 贝叶斯推理:贝叶斯推理是一种基于概率的方法,它使用先验知识来更新对不确定性的认识。

这种方法通常用于处理因果推理和异常检测等问题。

4. 深度强化学习:深度强化学习使用深度神经网络来学习如何做出最优决策,同时考虑到各种不确定性因素。

这种方法通常用于处理具有挑战性的实时决策问题,如自动驾驶和机器人控制。

5. 贝叶斯近似方法:贝叶斯近似方法是一种基于贝叶斯统计的方法,它使用简单的模型来近似复杂的模型,并估计其不确定性。

这种方法通常用于处理大规模数据集和复杂模型的不确定性估计。

总之,人工智能中的不确定性估计是一个重要的研究领域,涉及多种方法和技术。

这些方法和技术可以帮助我们更好地理解人工智能系统的性能,并为其提供更准确的决策支持。

人工智能 第5章 不确定性推理

C(E1∧E2)=min(C(E1),C(E2)) C(E1∨E2)=max(C(E1),C(E2)) (b)概率方法 C(E1∧E2)=C(E1)×C(E2) C(E1∨E2)= C(E1)+C(E2)-C(E1)×C(E2) (c)有界方法 C(E1∧E2)=max{0,C(E1)+C(E2)-1} C(E1∨E2)=min{1,C(E1)+C(E2)}
概率一般可以解释为对证据和规则的主观信任度。 概率推理中起关键作用的就是所谓的Bayes公式,
它也是主观Bayes方法的基础。
2020/3/2
人工智能 丁世飞
28
定义5.1(全概率公式) 设有事件A1,A2,…, An满足:
(1)任意两个事件互不相容;
(2)P(Ai)>0(i=1,2,…,n); (3)样本空间D是各个Ai(i=l,2,…,n) 的集 合。 则对任何事件B来说,有下式成立:
在专家系统中,不确定性表现在证据、规则和 推理三个方面,需要对专家系统中的事实与规 则给出不确定性描述,并在此基础上建立不确 定性的传递计算方法。
要实现对不确定性知识的处理,要解决:
不确定知识的表示问题
不确定信息的计算问题
计算的语义解释问题
1.表示问题
表示问题指的是采用什么方法描述不确定性,这 是解决不确定性推理的关键一步。通常有数值表 示和非数值的语义表示方法。数值表示便于计算 、比较;非数值表示,是一种定性的描述,以便 较好地解决不确定性问题。
它主要包括如下三个方面:
(1)不确定性的传递算法
(A)在每一步推理中,如何把证据及知识的不 确定性传递给结论。 (B)在多步推理中,如何把初始证据的不确定 性传给结论。

不确定性推理概述

不确定性推理概述4.1.1 不确定推理的概念所谓推理就是从已知事实出发,运⽤相关知识(或规则)逐步推出结论或证明某个假设成⽴或不成⽴的思维过程。

其中已知事实和知识(规则)是构成推理的两个基本要素。

已知事实是推理过程的出发点,把它称为证据。

4.1.2 不确定性推理⽅法的分类可信度⽅法、主观Bayes⽅法、证据理论都是在概率论的基础上发展起来的不确定性推理⽅法。

4.1.3 不确定性推理知识库是⼈⼯智能的核⼼,⽽知识库中的知识既有规律性的⼀般原理,⼜有⼤量的不完全的专家知识,即知识带有模糊性、随机性、不可靠或不知道不确定因素。

世界上⼏乎没有什么事情是完全确定的。

不确定性推理即是通过某种推理得到问题的精确判断。

(1)不确定性问题的代数模型⼀个问题的代数模型由论域、运算和公理组成。

建⽴不确定性问题模型必须说明不确定知识的表⽰、计算、与语义解释。

不确定性的表⽰问题:指⽤什么⽅法描述不确定性,通常有数值和⾮数值的语义表⽰⽅法。

数值表⽰便于计算,⽐较,再考虑到定性的⾮数值描述才能较好的解决不确定性问题。

例如对规则A->B(即A真能推导B真)和命题(或称证据、事实)A,分别⽤f(B,A)来表⽰不确定性度量。

推理计算问题:指不确定性的传播和更新,也即获得新的信息的过程。

包括:①已知C(A),A->B,f(B,A),如何计算C(B)②证据A的原度量值为C1(A),⼜得C2(A),如何确定C(A)③如何由C(A1)和C(A2)来计算C(A1∧A2),C(A1∨A2)等。

⼀般初始命题/规则的不确定性度量常常由有关领域的专家主观确定。

语义问题:是指上述表⽰和计算的含义是什么?即对它们进⾏解释,概率⽅法可以较好地回答这个问题,例如f(B,A)可理解为前提A为真时对结论B为真的⼀种影响程度,C(A)可理解为A为真的程度。

特别关⼼的是f(B,A)的值是:①A真则B真,这时f(B,A)=?②A真则B假,这时f(B,A)=?③A对B没有影响时,这时f(B,A)=?对C(A)关⼼的值是①A真时,C(A)=?②A假时,C(A)=?③对A⼀⽆所知时,C(A)=?(2)不确定推理⽅法的分类不确定推理⽅法在⼈⼯智能系统中通常是不够严谨的,但尚能解决某些实际问题,符合⼈类专家的直觉,在概率上也可给出某种解释。

如何应对AI技术中的不确定性与风险

如何应对AI技术中的不确定性与风险一、引言随着人工智能(Artificial Intelligence,简称AI)技术的迅速发展,人们越来越多地依赖于AI系统来解决各种问题。

然而,AI技术在应用过程中存在不确定性和风险,这给我们带来了一系列挑战。

本文将介绍如何应对AI技术中的不确定性与风险,并提出相应的解决方案。

二、认识AI技术中的不确定性与风险1. AI算法本身存在不确定性:由于复杂的计算模型和海量数据的处理,AI算法可能会产生难以预测的结果。

例如,在自动驾驶领域,面对某些非常规交通情况时,AI系统可能无法做出正确反应。

2. 数据质量与偏见问题:AI系统依赖于大量的数据进行训练和学习,但这些数据可能存在错误、缺失或偏见。

如果未考虑到数据质量问题,很容易导致潜在错误或产生偏向某些特定群体的结果。

3. 法律与道德问题:某些使用场景下,AI系统可能涉及到法律和道德方面的潜在问题。

例如,在医疗领域中,AI系统可能会对患者的隐私和医疗决策产生影响,引发法律纠纷和道德争议。

三、解决AI技术中的不确定性与风险1. 加强算法的解释能力:为了应对不确定性,AI技术需要具备较高的解释能力。

开发人员应该注重设计算法,使其不仅具备高准确率,还能够提供合理的解释机制。

这样一来,当出现错误时,我们可以更好地理解错误的原因,并采取相应措施进行修正。

2. 优化数据质量管理:为了降低潜在误差和偏见,我们需要关注并加强数据质量管理。

其中包括规范数据采集过程、确保数据来源可信、审查和清洗数据等步骤。

此外,在构建训练模型时,要注意纠正可能存在的历史偏见或随机噪声。

3. 建立透明与可解释性标准:在涉及法律和道德问题的使用场景下,可以制定透明与可解释性标准来规范AI系统的行为。

这些标准将明确说明AI系统如何收集、使用和分享数据,以及应对潜在风险的措施。

同时,建立独立的监管机构来监督和评估AI系统的合规性。

四、加强跨学科合作与社会参与1. 跨学科合作:AI技术的应用往往涉及多个学科领域,如计算机科学、心理学、伦理学等。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

主观Bayes方法 提出:1976年 杜达(R.O.Duda) 应用:地矿勘探专家系统PROSPECTOR
知识不确定性的表示 在主观Bayes方法中,知识(规则)就是推理网络中 的一条弧,它的不确定性是以一个数值对 (LS,LN)来进行描述的。 若以产生式规则的形式表示,其形式为: IF E THEN (LS,LN) H (P(H)) 其中各项含义如下 ①E是该知识的前提条件,既可以是单个的条件, 也可以是由AND或OR把多个简单条件连接而成的 复合条件。 ②H是结法 当证据E是由多个单一证据的合取组合而成时,即 E=E1E2…En 如果已知P(E1/S),P(E2/S),…,P(En/S),则 P(E/S)=min{P(E1/S),P(E2/S),…,P(En/S)} 当证据E是由多个单一证据的析取组合而成时,即 E=E1E2…En 如果已知P(E1/S),P(E2/S),…,P(En/S),则 P(E/S)=max{P(E1/S),P(E2/S),…,P(En/S)}
不确定性的推理计算 回顾1:Bayes公式
例1:设H1,H2,H3分别是三个结论,E是支持这些 结论的证据,且已知: P(H1)=0.4 P(H2)=0.5 P(H3)=0.2 P(E/H1)=0.3 P(E/H2)=0.4 P(E/H3)=0.5 求P(H1/E),P(H2/E),P(H3/E)的值
③(LS,LN)表示该知识的规则强度,度量知识的不 确定性。 LS:表示规则成立的充分性,体现前提为真对结论 的影响程度。 LN:表示规则成立的必要性,体现前提为假对结论 的影响程度。
证据不确定性的表示 1.单个证据不确定性的表示方法 在主观Bayes方法中,证据的不确定性是用概率表 示的。例如对于初始证据E,其先验概率为P(E) ,也可由用户根据观察S给出它的后验P(E/S)。 证据的不确定性也可用几率来表示。 概率与几率的关系
分三种情况讨论: ①CF(E)=1时,即证据肯定出现时
②当0<CF(E)<1时,因为有CF’(H)=CF(H,E)*CF(E)
③当CF(E)0时,规则IF E THEN H不可使用,对结 论H的可信度无影响。 实际上,在MYCIN系统中规定,当CF(E)0.2时,规 则IF E THEN H不可使用。
贝叶斯(Bayes)公式 设有事件A1,…,An互不相容,A1A2…An= ( 全集),事件B能且只能与A1,…,An中的一个同时 发生,而且P(B)>0,P(Ai)>0 i=1…n。则有
直接使用Bayes公式的方法 设有几种疾病A1,A2,…,An,而症状为B,问题是在 症状B下患者得了什么病?其可信任程度如何? 该问题可以直接引用Bayes公式求解。公式将症状B 出现后患病Ai的概率计算转化为P(B/Ai)和P(Ai) 的计算。当某个k下,P(Ak/B)明显的大,则可认 为症状B下患者得了Ak型疾病,其可信程度就是 P(Ak/B)。
由R1得 CF1(H)=CF(H,E1)*max{0,CF(E1)} =0.8*0.35 =0.28 由R2得 CF2(H)=CF(H,E2)*max{0,CF(E2)} =0.6*0.8 =0.48 由R3得 CF3(H)=CF(H,E3)*max{0,CF(E3)} =-0.5*0.54 =-0.27
不确定性的推理计算 (1)只有单条知识支持结论, CF(H)=CF(H,E)*max{0,CF(E)} (2)多条知识支持同一结论时,先分别计算每一条 知识的结论可信度,再通过两两合成来计算结论 不确定性
例:设有如下知识 R1:E1H CF(H,E1)=0.8 R2:E2H CF(H,E2)=0.6 R3:E3H CF(H,E3)=-0.5 R4:(E4(E5E6))E1 CF(E1,E4(E5E6))=0.7 R5:(E7E8)E3 CF(E3,E7E8)=0.9 已知 CF(E2)=0.8,CF(E4)=0.5,CF(E5)=0.6 CF(E6)=0.7,CF(E7)=0.6,CF(E8)=0.9 求CF(H)
(4)不确定性的更新 在推理的每一步如何利用证据和知识的不确定性去 更新结论的不确定性。 在整个推理过程中如何把初始证据的不确定性传递 给最终结论。 (5)不确定性结论的合成 由多种路线推出同一结论,且结论的不确定性程度 又各不相同。
不确定性的量度 不同的知识或证据,其不确定程度各异,所以需要 用不同的数值对它们的不确定程度进行表示,同 时规定它的取值范围。 不确定性的量度就是指,用一定的数值表示知识、 证据、结论的不确定程度时,这种数值的取值方 法和取值范围。
可信度方法 可信度:人们对某个事物或现象为真的相信程度。 可信度也称为确定性因子。 组合证据的不确定性获取方法 (1)当组合证据E是多个单一证据E1、E2、…、En的 合取时,CF(E)=min{CF(E1),CF(E2),…,CF(En)} (2)当组合证据E是多个单一证据E1、E2、…、En的 析取时,CF(E)=max{CF(E1),CF(E2),…,CF(En)}
先合成CF1(H)和CF2(H),由于二者均大于0,所以 CF1,2(H)=CF1(H)+CF2(H)-CF1(H)*CF2(H) =0.28+0.48-0.28*0.48 =0.6256 再合成CF1,2(H)和CF3(H),由于二者异号,所以
作业:推理网络如图所示,求CF(H)
H
0.9
E1
0.7
不确定性推理的基本问题 (1)不确定性的表示 知识不确定性的表示(知识的静态强度):表示相应 知识的确定性程度。通常是一个数值。 证据不确定性的表示。来源:初始证据、中间结论 (2)不确定性的匹配 如果双方的相似程度在规定的限度内,则称双方是 可匹配的。 (3)组合证据不确定性的计算 当知识的前提条件为组合条件时,需要有合适的算 法来计算复合证据的不确定性。
推理网络 0.8 E1 0.7 E4 0.5 E5 0.6
H
0.6 E2 0.8
-0.5 E3 0.9 E8 0.9
E7 0.6 E6 0.7
解:由R4得 CF(E1)=CF(E1,E4(E5E6))*max{0,CF(E4(E5E6))} =0.7*max{0,min{CF(E4),CF(E5E6)}} =0.7*max{0,min{CF(E4),max{CF(E5),CF(E6)}}} =0.7*max{0,min{0.5,max{0.6,0.7}}} =0.7*0.5 =0.35 由R5得 CF(E3)=CF(E3,E7E8)*max{0,min{CF(E7),CF(E8)}} =0.9*max{0,0.6} =0.54
解:由于X,Y具有初始可信度,可使用更新法 ①更新X的可信度 因为证据初始值CF(A)=CF(B)=CF(C)=CF(D)=0.5
CF(X/A)=CF0(X)+CF(A)*CF(X,A)-CF0(X)*CF(A)*CF(X,A)
=0.1+0.5*0.8-0.1*0.5*0.8=0.46
CF(X/A,B)=CF(X/A)+CF(B)*CF(X,B)-CF(X/A)*CF(B) *CF(X,B)
E2
-0.8
E3
0.7
E4 E5
1.0
0.3
E6 E7 E8
0.9
0.6 0.7
-0.3
0.8
(3)在已知结论原始可信度的情况下,结论可信度的 更新计算方法 如果已知证据E对结论H有影响,且知识EH的可信 度为CF(H,E),同时结论H原来的可信度为CF(H), 如何求在证据E下的结论H可信度的更新值 CF(H/E)? 即:已知规则IF E THEN H (CF(H,E)),以及CF(H) ,求CF(H/E)。
例3:使用更新算法求解例1 R1:A1B1 CF(B1,A1)=0.8 R2:A2B1 CF(B1,A2)=0.5 R3:(B1A3)B2 CF(B2,B1A3)=0.8 B2 0 初始证据A1,A2,A3的可信度CF均为1。 0.8 B1,B2的初始可信度均为0。 B1A3 求CF(B1)和CF(B2)的更新值。
CF(B1/A1A2)=CF(B1/A1)+CF(B1,A2)CF(B1/A1)*CF(B1,A2)
=0.8+0.5-0.8*0.5=0.9 所以,CF(B1)的值更新为0.9
②求CF(B2)的更新值 为了使用规则R3,需先求: CF(B1A3)=min{CF(A3),CF(B1)}=min{1,0.9}=O.9 在规则(B1A3)B2中,证据B1A3的可信度为 0.9(0,1),所以 CF(B2/B1A3)=CF(B2)+CF(B2,B1A3)*CF(B1A3)CF(B2)*CF(B2,B1A3)*CF(B1A3) =0+0.8*0.9-0 =0.72 所以,B2的可信度由0更新为0.72
概率论基础 统计概率 在同一组条件下进行大量重复试验,如果事件A出 现的频率总是在区间[0,1]上的一个确定常数p附 近摆动,并且稳定于p,则称p为事件A的统计概 率。即P(A)=p 条件概率 设A与B是某个随机试验中的两个事件,如果在事件 B发生的条件下考虑事件A发生的概率,就称它为 事件A的条件概率。记P(A/B)。
0 B1
0.8
A1 A2
A3
0.5 1
1
1
解:B1,B2可信度的初始值为0 证据的可信度CF(A1)=CF(A2)=CF(A3)=1 ①先求CF(B1)的更新值。根据R1:
CF(B1/A1)=CF(B1)+CF(B1,A1)-CF(B1)*CF(B1,A1)
=0+0.8-0=0.8 由此可见,使用规则R1后,CF(B1)由0提高到0.8 根据R2:
回顾2:三个定义
主观Bayes方法推理的任务: 根据证据E的概率P(E)及LS、LN的值,把H的先验概 率P(H)或先验几率O(H)更新为后验概率或后验几 率。
不确定性推理
什么是不确定性推理 不确定性推理是建立在不确定性知识和证据的基础 上的推理。 从不确定的初始证据出发,通过运用不确定性知识, 最终推出具有一定程度的不确定性但却又是合理 或基本合理的结论。
相关文档
最新文档