人工智能例题大纲

人工智能例题大纲
人工智能例题大纲

1. 用谓词逻辑知识表示方法表示如下知识:

(1) 有人喜欢梅花,有人喜欢菊花,有人既喜欢梅花又喜欢菊花。

(2) 不是每个计算机系的学生都喜欢在计算机上编程序。

解:(1)

定义谓词

P(x):x是人

L(x,y):x喜欢y

其中,y的个体域是{梅花,菊花}。

将知识用谓词表示为:

(?x)(P(x)→L(x, 梅花)∨L(x, 菊花)∨L(x, 梅花)∧L(x, 菊花))

解:(2)

定义谓词

S(x):x是计算机系学生

L(x, pragramming):x喜欢编程序

U(x,computer):x使用计算机

将知识用谓词表示为:

? (?x) (S(x)→L(x, pragramming)∧U(x,computer))

2. 请用语义网络表示如下知识:

高老师从3月到7月给计算机系的学生讲“计算机网络”课。

解:

3. 判断以下子句集是否为不可满足

{P(x)∨Q(x )∨R(x), ﹁P(y)∨R(y), ﹁Q(a), ﹁R(b)}

解:采用归结反演,存在如下归结树,故该子句集为不可满足。

4、证明G是F的逻辑结论

F: (?x)(?y)(P(f(x))∧(Q(f(y)))

G: P(f(a))∧P(y)∧Q(y)

证:先转化成子句集

对F,进行存在固化,有

P(f(v))∧(Q(f(w)))

得以下两个子句

P(f(v)),Q(f(w))

对﹁G,有

﹁P(f(a))∨﹁P(y) ∨﹁Q(y)

先进行部合一,设合一{f(a)/y},则有因子

﹁P(f(a)) ∨﹁Q(f(a))

再对上述子句集进行归结演绎推理。其归结树如下图所示,即存在一个到空子句的归结过程。

因此G为真。

5 设有如下结构的移动将牌游戏:

其中,B表示黑色将牌,W表是白色将牌,E表示空格。游戏的规定走法是:

(1) 任意一个将牌可移入相邻的空格,规定其代价为1;

(2) 任何一个将牌可相隔1个其它的将牌跳入空格,其代价为跳过将牌的数目加1。

游戏要达到的目标什是把所有W都移到B的左边。对这个问题,请定义一个启发函数h(n),并给出用这个启发函数产生的搜索树。你能否判别这个启发函数是否满足下界要求?在求出的搜索树中,对所有节点是否满足单调限制?

解:设h(x)=每个W左边的B的个数,f(x)=d(x)+3*h(x),其搜索树如下:

6 设有如下一组推理规则:

r1: IF E1THEN E2 (0.6)

r2: IF E2AND E3THEN E4 (0.7)

r3: IF E4THEN H (0.8)

r4: IF E5THEN H (0.9)

且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=?

解:(1) 先由r1求CF(E2)

CF(E2)=0.6 × max{0,CF(E1)}

=0.6 × max{0,0.5}=0.3

(2) 再由r2求CF(E4)

CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}

=0.7 × max{0, min{0.3, 0.6}}=0.21

(3) 再由r3求CF1(H)

CF1(H)= 0.8 × max{0,CF(E4)}

=0.8 × max{0, 0.21)}=0.168

(4) 再由r4求CF2(H)

CF2(H)= 0.9 ×max{0,CF(E5)}

=0.9 ×max{0, 0.7)}=0.63

(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H)

CF(H)= CF1(H)+CF2(H)- CF1(H) ×CF2(H)

=0.692

7 设训练例子集如下表所示:

请用ID3算法完成其学习过程。

解:

设根节点为S,尽管它包含了所有的训练例子,但却没有包含任何分类信息,因此具有最大的信息熵。即:

H(S)= - (P(+)log 2P(+) - P(-)log2 P(-))

式中

P(+)=3/6,P(-)=3/6

即有

H(S)= - ((3/6)*log (3/6) - (3/6)*log (3/6))

= -0.5*(-1) - 0.5*(-1) = 1

按照ID3算法,需要选择一个能使S的期望熵为最小的一个属性对根节点进行扩展,因此我们需要先计算S关于每个属性的条件熵:

H(S|x i)= ( |S T| / |S|)* H(S T) + ( |S F| / |S|)* H(S F)

其中,T和F为属性x i的属性值,S T和S F分别为x i=T或x i=F时的例子集,|S|、| S T|和|S F|分别为例子集S、S T和S F 的大小。

下面先计算S关于属性x1的条件熵:

在本题中,当x1=T时,有:

S T={1,2,3}

当x1=F时,有:

S F={4,5,6}

其中,S T和S F中的数字均为例子集S中例子的序号,且有|S|=6,| S T |=| S F |=3。

由S T可知:

P(+)=2/3,P(-)=1/3

则有:

H(S T)= - (P(+)log2 P(+) - P(-)log2 P(- ))

= - ((2/3)log2(2/3)- (1/3)log2(1/3)) ==0.9183

再由S F可知:

P SF(+)=1/3,P SF(-)=2/3

则有:

H(S F)= - (P SF(+)log2 P ST(+) - P SF(-)log2 P SF(- ))

= - ((2/3)log2(2/3)- (1/3)log2(1/3)) = 0.9183

将H(S T)和H (S F)代入条件熵公式,有:

H(S|x1)=(|S T|/|S|)H(S T)+ (|S F|/|S|)H(S F)

=(3/6)﹡0.9183 + (3/6)﹡0.9183

=0.9183

下面再计算S关于属性x2的条件熵:

在本题中,当x2=T时,有:

S T={1,2,5,6}

当x2=F时,有:

S F={3,4}

其中,S T和S F中的数字均为例子集S中的各个例子的序号,且有|S|=6,| S T |=4,| S F |=2。

由S T可知:

P ST (+) = 2/4

P ST (-) = 2/4

则有:

H(S T)= - (P ST (+)log2 P ST (+) - P ST (-)log2 P ST (- ))

= - ((2/4)log2(2/4) - (2/4)log2(2/4))

=1

再由S F可知:

P SF (+)=1/2

P SF (-)=1/2

则有:

H(S F)= - (P(+)log2 P(+) - P(-)log2 P(- ))

= - ((1/2)log2(1/2)- (1/2)log2(1/2))

=1

将H(S T)和H (S F)代入条件熵公式,有:

H(S|x2)=(|S T|/|S|)H(S T)+ (|S F|/|S|)H(S F)

=(4/6)﹡1 + (2/6)﹡1

=1

可见,应该选择属性x1对根节点进行扩展。用x1对S扩展后所得到的部分决策树如下图所示。

8八数码难题

f(n)=d(n)+P(n)

d(n) 深度

P(n)与目标距离

显然满足

P(n)≤ h*(n)

即f*=g*+h*

9 修道士和野人问题

解:用m表示左岸的修道士人数,c表示左岸的野人数,b表示左岸的船数,用三元组(m, c, b)表示问题的状态。

对A*算法,首先需要确定估价函数。设g(n)=d(n),h(n)=m+c-2b,则有

f(n)=g(n)+h(n)=d(n)+m+c-2b

其中,d(n)为节点的深度。通过分析可知h(n)≤h*(n),满足A*算法的限制条件。

M-C问题的搜索过程如下图所示。

10 设有如下一组知识:

r 1:IF E 1 THEN H (0.9) r 2:IF E 2 THEN H (0.6) r 3:IF E 3 THEN H (-0.5)

r 4:IF E 4 AND ( E 5 OR E 6) THEN E 1 (0.8)

已知:CF(E 2)=0.8,CF(E 3)=0.6,CF(E 4)=0.5,CF(E 5)=0.6, CF(E 6)=0.8 求:CF(H)=? 解:由r 4得到:

CF(E 1)=0.8×max{0, CF(E 4 AND (E 5 OR E 6))} = 0.8×max{0, min{CF(E 4), CF(E 5 OR E 6)}} =0.8×max{0, min{CF(E 4), max{CF(E 5), CF(E 6)}}} =0.8×max{0, min{CF(E 4), max{0.6, 0.8}}} =0.8×max{0, min{0.5, 0.8}} =0.8×max{0, 0.5} = 0.4

由r 1得到:CF 1(H)=CF(H, E 1)×max{0, CF(E 1)}

=0.9×max{0, 0.4} = 0.36 由r 2得到:CF 2(H)=CF(H, E 2)×max{0, CF(E 2)} =0.6×max{0, 0.8} = 0.48 由r 3得到:CF 3(H)=CF(H, E 3)×max{0, CF(E 3)} =-0.5×max{0, 0.6} = -0.3

根据结论不精确性的合成算法,CF 1(H)和CF 2(H)同号,有:

67

.017.084.048.036.048.036.0)

()()()()(21212,1=-=?-+=?-+=H CF H CF H CF H CF H CF

CF 12(H)和CF 3(H)异号,有:

{}

{}53

.07

.037

.03.0,67.0min 13.067.0)

(,)(min 1)()()(32,132,13,2,1==

--=

-+=

H CF H CF H CF H CF H CF

即综合可信度为CF(H)=0.53

11 设有如下知识:

r1: IF E1(0.6)AND E2(0.4) THEN E5 (0.8)

r2: IF E3(0.5)AND E4(0.3)AND E5(0.2)THEN H (0.9) 已知: CF (E1)=0.9,CF (E2)=0.8,CF (E3)=0.7,CF (E4)=0.6 求: CF (H )=?

解:

CF(E1 AND E2)=0.9*0.6+0.8*0.4=0.86 CF(E5)=0.86*0.8=0.69 CF(E3 AND E4 AND E5)

=0.7*0.5+0.6*0.3+0.69*0.2=0.67

CF(H)=0.67*0.9=0.60

12设有如下规则:

r1: IF E1 AND E2THEN A={a1, a2} CF={0.3, 0.5}

r2: IF E3 THEN H={h1, h2} CF={0.4, 0.2}

r3: IF A THEN H={h1, h2} CF={0.1, 0.5}

已知用户对初始证据给出的确定性为:

CER(E1)=0.8 CER(E2)=0.6

CER(E3)=0.9

并假Ω定中的元素个数∣Ω∣=10

求:CER(H)=?

解:由给定知识形成的推理网络如下图所示:

(1) 求CER(A)

由r1:

CER(E1AND E2)

=min{CER(E1), CER(E2)}

=min{0.8, 0.6} = 0.6

m({a1}, {a2})={0.6×0.3, 0.6×0.5} = {0.18, 0.3}

Bel(A)=m({a1})+m({a2})=0.18+0.3=0.48

Pl(A)=1-Bel(﹁A)=1-0=1

f(A)=Bel(A)+|A|/|Ω|?[Pl(A)-Bel(A)]

=0.48+2/10*[1-0.48]

=0.584

CER(A)=MD(A/E')×f(A)=0.584

(2) 求CER(H)

由r2得

m1({h1}, {h2})={CER(E3)×0.4, CER(E3)×0.2}

={0.9×0.4, 0.9×0.2}

={0.36, 0.18}

m1(Ω)=1-[m1({h1})+m1({h2})]

=1-[0.36+0.18]=0.46

由r 3得

m 2({h 1}, {h 2})={CER(A)×0.1, CER(A)×0.5} ={0.58×0.1, 0.58×0.5} ={0.06, 0.29}

m 2(Ω)=1-[m 2({h 1})+m 2({h 2})] =1-[0.06+0.29]=0.65 求正交和m=m 1⊕m 2

K=m 1(Ω)×m 2(Ω)

+m 1({h 1})×m 2({h 1})+m 1({h 1})×m 2(Ω)+m 1(Ω)×m 2({h 1}) +m 1({h 2})×m 2({h 2})+m 1({h 2})×m 2(Ω)+m 1(Ω)×m 2({h 2}) =0.46×0.65

+0.36×0.06+0.36×0.65+0.46×0.06 +0.18×0.29+0.18×0.65+0.46×0.29

=0.30+(0.02+0.23+0.03)+(0.05+0.12+0.13) =0.88

32

.0]06.046.065.036.006.036.0[88.01

})]

({)()(})({})({})({[1

)(12121112111=?+?+??=

?Ω+Ω?+??=

h m m m h m h m h m K

h m

同理可得:

34.0]29.046.065.018.029.018.0[88

.01

})]

({)()(})({})({})({[1

)(22122122212=?+?+??=

?Ω+Ω?+??=

h m m m h m h m h m K

h m

故有:m(Ω)=1-[m({h 1})+m({h 2})]

=1-[0.32+0.34] = 0.34 再根据m 可得

Bel(H)=m({h 1})+m({h 2}) = 0.32+0.34 = 0.66 Pl(H)=m(Ω)+Bel(H)=0.34+0.66=1

73.0)66.01(102

66.0)]()([)()(=-?+

=-?Ω

+

=H Bel H Pl H

H Bel H f

CER(H)=MD(H/E')×f(H)=0.73

13用ID3算法完成下述学生选课的例子 假设将决策y 分为以下3类: y 1:必修AI y 2:选修AI y 3:不修AI

做出这些决策的依据有以下3个属性:

x 1:学历层次 x 1=1 研究生,x 1=2 本科 x 2:专业类别 x 2=1 电信类,x 2=2 机电类 x 3:学习基础 x 3=1 修过AI ,x 3=2 未修AI

表6.1给出了一个关于选课决策的训练例子集S 。

该训练例子集S 的大小为8。ID3算法就是依据这些训练例子,以S 为根节点,按照信息熵下降最大的原则来构造决策树的。

解: 首先对根节点,其信息熵为:

)

(log )()(23

1

i i i y P y P S H ∑=-=

其中,3为可选的决策方案数,且有 P(y 1)=1/8,P(y 2)=2/8,P(y 3)=5/8 即有:

H(S)= -(1/8)log 2(1/8)- (2/8)log 2(2/8)- (5/8)log 2(5/8) =1.2988

按照ID3算法,需要选择一个能使S 的期望熵为最小的一个属性对根节点进行扩展,因此我们需要先计算S 关于每个属性的条件熵:

其中,t 为属性x i 的属性值,S t 为x i =t 时的例子集,|S|和|S t |分别是例子集S 和S t 的大

小。

下面先计算S 关于属性x 1的条件熵:

在表6-1中,x 1的属性值可以为1或2。当x 1=1时,t=1时,有: S 1={1,2,3,4} 当x 1=2时,t=2时,有: S 2={5,6,7,8}

其中,S 1和S 2中的数字均为例子集S 中的各个例子的序号,且有|S|=8,|S 1|=|S 2|=4。 由S 1可知:

Ps 1(y 1)=1/4, Ps 1(y 2)=1/4, Ps 1(y 3)=2/4 则有:

||

(/)()

||t i t t S H S x H S S =∑

H(S1)= - Ps1(y1)log2 Ps1(y1) - Ps1(y2)log2 Ps1(y2 )- Ps1(y3)log2 Ps1(y3 )

= -(1/4)log2(1/4)- (1/4)log2(1/4)- (2/4)log2(2/4) =1.5

再由S2可知:

Ps2(y1)=0/4, Ps2(y2)=1/4, Ps2(y3)=3/4

则有:

H(S2)=– Ps2(y2)log2 Ps2(y2 )- Ps2(y3)log2 Ps2(y3 )

=- (1/4)log2(1/4)- (3/4)log2(3/4) =0.8113

将H(S1)和H(S2)代入条件熵公式,有:

H(S/x1)=(|S1|/|S|)H(S1)+ (|S2|/|S|)H(S2)

=(4/8)﹡1.5+(4/8)﹡0.8113 =1.1557

同样道理,可以求得:

H(S/x2)=1.1557

H(S/x3)=0.75

可见,应该选择属性x3对根节点进行扩展。用x3对S扩展后所得到的得到部分决策树如图6.5所示。

在该树中,节点“x3=1, y3 ”为决策方案y3。由于y3已是具体的决策方案,故该节点的信息熵为0,已经为叶节点。

节点“x3=2, x1, x2?”的含义是需要进一步考虑学历和专业这两个属性,它是一个中间节点,还需要继续扩展。至于其扩展方法与上面的过程类似。

通过计算可知,该节点对属性x1和x2,其条件熵均为1。由于它对属性x1和x2的条件熵相同,因此可以先选择x1,也可以先选择x2。

依此进行下去,若先选择x1可得到如图6.6所示的最终的决策树;若先选择x2可得到如图7.7所示的最终的决策树。

S

x 3=1, y

3

x

3

=2, x

1

, x

2图6.5 部分决策树

x

3

=1x3=2

14 (归结反演)

已知:“和是同班同学,如果x和y是同班同学,则x的教室也是y的教室,现在在302教室上课。”

问:“现在在哪个教室上课?”

解:首先定义谓词:

C(x, y) x和y是同班同学;

At(x, u) x在u教室上课。

把已知前提用谓词公式表示如下:

C(zhang, li)

(?x) (?y) (?u) (C(x, y)∧At(x, u)→At(y,u))

At(zhang, 302)

把目标的否定用谓词公式表示如下:

﹁(?v)At(li, v)

把上述公式化为子句集:

C(zhang, li)

﹁C(x, y)∨﹁At(x, u)∨At(y, u)

At(zhang, 302)

把目标的否定化成子句式,并用重言式

﹁At(li,v) ∨At(li,v)

代替之。

把此重言式加入前提子句集中,得到一个新的子句集,对这个新的子句集,应用归结原理求出其证明树。

其求解过程如下图所示。

该证明树的根子句就是所求的答案,即“明在302教室”。

公式:

A估价函数

用来估计节点重要性,定义为从初始节点S0出发,约束经过节点n到达目标节点S g的所有路径中最小路径代价的估计值。一般形式:

f(n)=g(n)+h(n)

其中,g(n)是从初始节点S0到节点n的实际代价;h(n)是从节点n到目标节点S g的最优路径的估计代价。

B A*算法是对A算法的估价函数f(n)=g(n)+h(n)加上某些限制后得到的一种启发式搜索算法

假设f*(n)是从初始节点S0出发,约束经过节点n到达目标节点S g的最小代价,估价函数f(n)是对f*(n)的估计值。记

f*(n)=g*(n)+h*(n)

其中,g*(n)是从S0出发到达n的最小代价,h*(n)是n 到S g的最小代价

如果对A算法(全局择优)中的g(n)和h(n)分别提出如下限制:

第一,g(n)是对最小代价g*(n)的估计,且g(n)>0;

第二,h(n)是最小代价h*(n)的下界,即对任意节点n均有h(n)≤h*(n)。

则称满足上述两条限制的A算法为A*算法。

C 不确定性知识的表示形式:

在C-F模型中,知识是用产生式规则表示的,其一般形式为:

IF E THEN H (CF(H, E))

其中,E是知识的前提条件;H是知识的结论;CF(H, E)是知识的可信度。

D 组合证据

合取:E=E1 AND E2 AND … En时,若已知CF(E1),CF(E2),…,则

CF(E)=min{CF(E1), CF(E2), … ,CF(En)}

析取:E=E1 OR E2 OR … En时,若已知CF(E1),CF(E2),…,则

CF(E)=max{CF(E1), CF(E2), … ,CF(En)}

E 不确定性的更新公式

CF(H)=CF(H, E)×max{0, CF(E)}

若CF(E)<0,则

CF(H)=0

即该模型没考虑E为假对H的影响。

若CF(E)=1,则

CF(H)=CF(H,E)

F 设有知识:IF E1THEN H (CF(H, E1))

IF E2THEN H (CF(H, E2))

则结论H 的综合可信度可分以下两步计算:

(1) 分别对每条知识求出其CF(H)。即

CF 1(H)=CF(H, E 1) ×max{0, CF(E 1)} CF 2(H)=CF(H, E 2) ×max{0, CF(E 2)}

(2) 用如下公式求E 1与E 2对H 的综合可信度

{}

异号)(与

)(若0)(且0)(若0

)(且0)(若)

(,)(min 1)()()

()()()()()()()()(212121212121212121H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF H CF <<≥≥??

?

?

??

??

?-+?++?-+=

G 带加权因子的可信度推理 在这种不确定性推理中,证据的不确定性仍然用可信度因子表示,组合证据的可信度可通过计算得到。对于前提条件

E=E1(ω1) AND E2(ω2) AND …… AND En(ωn)

所对应的组合证据,其可信度由下式计算: CF(E)= CF(E1)*ω1 +CF(E2)*ω2+……+CF(En)*ωn

如果不满足归一条件,则可信度由下式计算:

CF(E)= (CF(E1)*ω1 +CF(E2)*ω2+……+CF(En)*ωn)/(ω1+ ω2+… ωn)

H 证据理论

设函数m :2Ω→[0,1],且满足

∑Ω

?==ΦA A m m 1

)(0)(

则称m 是2Ω上的概率分配函数,m(A)称为A 的基本概率数。

I 概率分配函数的合成

设m 1和m 2是2Ω上的基本概率分配函数,它们的正交和 21m m m ⊕= 定义为

)]()()()()()([})({2121211i i i i i s m m m s m s m s m K s m ?Ω+Ω?+??=-

其中

)]()()()()()([)()(2

1

1

2

1

2

1

21i n

i

i i i s m m m s m s m s m m m K ?Ω+Ω?+?+

Ω?Ω=∑=

J 信任函数(下限函数)

对任何命题A ?Ω,其信任函数为

1)(})({)()(})({)(1

=Ω+==

Ω=∑∑∑=Ω

?∈

m s m B m Bel s m A Bel n

i

i B A

s i i

K 似然函数(上限函数)

对任何命题A ?Ω,其似然函数为 1

)(1)(1)()

()()]

()(1[1]})({})({[1})({1)(1)(1=Φ-=Ω?-=Ω+Ω=-Ω--=--=-

=?-=∑∑∑=∈

?

∈Bel Bel Pl A Bel m A Bel m s m s m s m A Bel A Pl n

i A

s i i A s i i i

似然函数也称为上限函数,表示对A 的非假信任度。可以看出,对任何命题A ?Ω、 A ?Ω都有

Pl(A)-Bel(A) = Pl(B)-Bel(B) = m(Ω)

L 类概率函数

设Ω为有限域,对任何命题A ?Ω,命题A 的类概率函数为

[]

)()()()(A Bel A Pl A

A Bel A f -?Ω

+

=

M 证据的匹配度表示

设A 是规则条件部分的命题,E '是外部输入的证据和已证实的命题,在证据E '的条件下,命题A 与证据E '的匹配程度为

N 证据的确定性表示

条件部分命题A 的确定性为

CER(A)=MD(A/E ')×f(A) 其中f(A)为类概率函数。

由于f(A) ∈[0, 1],因此CER(A) ∈[0, 1]

O 组合证据的不确定性表示 当组合证据是多个证据的合取时

E=E 1 AND E 2 AND … AND E n 则

CER(E)=min{CER(E 1), CER(E 2), … ,CER(E n )} 当组合证据是多个证据的析取时

E=E 1 OR E 2 OR … OR E n 则

CER(E)=max{CER(E 1), CER(E 2), … . CER(E n )

P 结论的确定性

设有知识 IF E THEN H={h 1, h 2, … , h n } CF={c 1, c 2, … ,} 则求结论H 的确定性CER(H)的方法如下:

如果有两条或多条知识支持同一结论H ,例:

IF E 1 THEN H={h 1, h 2, … , h n } CF={c 11, c 12, … , c 1n } IF E 2 THEN H={h 1, h 2, … , h n } CF={c 21, c 22, … , c 2n } 则按正交和求CER(H),即先求出: m 1=m 1({h 1},{h 2},…,{h n }) m 2=m 2({h 1},{h 2},…,{h n })

然后再用公式21m m m ⊕=求m 1和m 2的正交和,最后求得H 的m 。

按公式CER(H)=MD(H/E ') ×f(H)计算结论H 确定性。

Q 信息熵

信息熵是对信息源整体不确定性的度量。假设X 为信源,x i 为X 所发出的单个信息,P(x i )为X 发出x i 的概率,则信息熵可定义为:

)

(log )()

(log )()(log )()(log )()(12211i k

i i r r x P x P x P x P x P x P x P x P X H ∑=-=----=

R 条件熵

条件熵是收信者在收到信息后对信息源不确定性的度量。若假设信源为X ,收信者收到的信息为Y , P(x i /y j )为当Y 为y j 时X 为x i 的条件概率,则条件熵可定义为:

∑∑==-=k i k

j j i j i y x P y x p Y X H 11

)

|(log )|()|(

12121({},{},...,{})((),(),,()()1()n n

n

i

i m h h h CER E c CER E c CER E c m CRE E c ==???Ω=-?∑∑==n i i

h m H Bel 1})

({)()

(1)(H Bel H Pl ?-=)

()()]()([)()(Ω?Ω

+

=-?Ω+=m H H Bel H Bel H Pl H H Bel H f

相关主题
相关文档
最新文档