信息论与编码课后答案

合集下载

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)
证:
1.8每帧电视图像可以认为是由3×105个像素组成,所以像素均是独立变化,且每像素又取128个不同的亮度电平,并设亮度电平是等概出现。问每帧图像含有多少信息量?若现在有一个广播员,在约10000个汉字中选1000个字来口述这一电视图像,试问若要恰当地描述此图像,广播员在口述中至少需要多少汉字?
解:
2.21设某信道的信道矩阵为
试求:
(1)该信道的信道容量C;
(2)I(a1;Y);
(3)I(a2;Y)。
解:
2.22设某信道的信道矩阵为
试该信道的信道容量C;
解:
2.23求下列二个信道的信道容量,并加以比较(其中0<p,q<1,p+q=1)
(1)
(2)
解:
2.27设某信道的信道矩阵为
其中P1,P2,…,PN是N个离散信道的信道矩阵。令C1,C2,…,CN表示N个离散信道的容量。试证明,该信道的容量 比特/符号,且当每个信道i的利用率pi=2Ci-C(i=1,2,…,N)时达其容量C。
解:
3.7设某信源在开始时的概率分布为P{X0=0}=0.6;P{ X0=1}=0.3; P{ X0=2}=0.1。第一个单位时间的条件概率分布分别是:
P{ X1=0/ X0=0}=1/3; P{X1=1/ X0=0}=1/3; P{ X1=2/ X0=0}=1/3;
P{ X1=0/ X0=1}=1/3; P{ X1=1/ X0=1}=1/3; P{ X1=2/ X0=1}=1/3;
解:
2.3有两个二元随机变量X和Y,它们的联合概率为P[X=0,Y=0]=1/8,P[X=0,Y=1]=3/8,P[X=1,Y=1]=1/8,P[X=1,Y=0]=3/8。定义另一随机变量Z=XY,试计算:

《信息论与编码》部分课后习题参考答案

《信息论与编码》部分课后习题参考答案

若知道是星期几,则从别人的答案中获得的信息量为 0。 2.3 每帧电视图像可以认为是 3*10^5 个像素构成,所有像素均独立变化,且每一像素又取 128 个不同的亮度电平,并设亮度电平等概率出现。问每帧图像喊多少信息量?如果一个广 播员在约 10000 个汉字的字汇中选取 1000 个字来口述此电视图像,试问广播员描述此图像 所广播的信息量是多少(假设汉字字汇是等概率分布,并且彼此独立)?若要恰当地描述此 图像,广播员在口述中至少需用多少汉字? 答:由于每一象素取 128 个不同的亮度电平,各个亮度电平等概率出现。因此每个亮度电平 包含的信息量为 I(X) = – lb(1/128)=lb128=7 bit/像素 每帧图像中像素均是独立变化的, 因此每帧图像信源就是离散亮度电平信源的无记忆 N 次扩展。由此,每帧图像包含的信息量为 I(XN) = NI(X)= 3×105×7 =2.1×106 bit/帧 广播员在约 10000 个汉字中选取字汇来口述此电视图像, 各个汉字等概分布, 因此每个 汉字包含的信息量为 I(Y) = – lb(1/10000)=lb1000=13.29 bit/ 字 广播员述电视图像是从这个汉字字汇信源中独立地选取 1000 个字进行描述,因此广播 员描述此图像所广播的信息量是 I(YN) = NI(Y)= 1000×13.29 =1.329 ×104 bit/字 由于口述一个汉字所包含的信息量为 I(Y),而一帧电视图像包含的信息量是 I(XN),因此 广播员要恰当地描述此图像,需要的汉字数量为:
《信息论与编码》
部分课后习题参考答案
1.1 怎样理解消息、信号和信息三者之间的区别与联系。 答:信号是一种载体,是消息的物理体现,它使无形的消息具体化。通信系统中传输的是 信号。 消息是信息的载体, 信息是指消息中包含的有意义的内容, 是消息中的未知成分。 1.2 信息论的研究范畴可以分成哪几种,它们之间是如何区分的? 答:信息论的研究范畴可分为三种:狭义信息论、一般信息论、广义信息论。 1.3 有同学不同意“消息中未知的成分才算是信息”的说法。他举例说,他从三岁就开始背 诵李白诗句“床前明月光,疑是地上霜。举头望明月,低头思故乡。 ” ,随着年龄的增长, 离家求学、远赴重洋,每次读到、听到这首诗都会带给他新的不同的感受,怎么能说这 些已知的诗句没有带给他任何信息呢?请从广义信心论的角度对此现象作出解释。 答:从广义信息论的角度来分析,它涉及了信息的社会性、实用性等主观因素,同时受知识 水平、文化素质的影响。这位同学在欣赏京剧时也因为主观因素而获得了享受,因此属于广 义信息论的范畴。

信息论与编码理论课后答案

信息论与编码理论课后答案

信息论与编码理论课后答案【篇一:《信息论与编码》课后习题答案】式、含义和效用三个方面的因素。

2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

4、按照信息的地位,可以把信息分成客观信息和主观信息。

5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

6、信息的是建立信息论的基础。

7、8、是香农信息论最基本最重要的概念。

9、事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。

12、自信息量的单位一般有比特、奈特和哈特。

13、必然事件的自信息是。

14、不可能事件的自信息量是15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。

17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。

limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。

19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。

20、一维连续随即变量x在[a,b] 。

1log22?ep21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。

22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。

23、对于限平均功率的一维连续信源,当概率密度24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。

2728、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?11?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学2期望,则x的信源熵c。

信息论与编码陈运主编答案完整版

信息论与编码陈运主编答案完整版

p x x( i1 i3 )log p x( i3 / xi1)
i1 i2 i3
i1 i3
∑∑∑ ∑∑∑ = −
p x x x( i1 i2i3 )log p x( i3 / x xi1 i2 ) +
p x x x( i1 i2i3 )log p x( i3 / xi1)
i1
i2 i3 i1 i2 i3 p x( i3 / xi1)
( 1)
5 / 61
⎧p e( 1 ) = p e( 2 ) = p e( 3 ) ⎨
⎩p e( 1 ) + p e( 2 ) + p e( 3 ) =1 ⎧p e( 1 ) =1/3 ⎪ ⎨p e( 2 ) =1/3 ⎪⎩p e( 3 ) =1/3
⎧p x( 1 ) = p e( 1 ) (p x1 /e1 ) + p e( 2 ) (p x1 /e2 ) = p p e⋅( 1 ) + p p e⋅( 2 ) = (p + p)/3 =1/3 ⎪⎪ ⎨p x( 2 ) = p e( 2 ) (p x2 /e2 ) + p e( 3 ) (p x2 /e3 ) =p p e⋅( 2 ) + p p e⋅( 3 ) = (p + p)/3 =1/3
p x( i ) = I x( i ) =−log p x( i ) = log52!= 225.581 bit
(2) 52 张牌共有 4 种花色、13 种点数,抽取 13 张点数不同的牌的概率如下:
413 p x( i ) =
C5213
413 I x( i ) = −log p x( i ) = −log C5213 =13.208 bit
解: (1)

《信息论与编码》部分课后习题参考答案

《信息论与编码》部分课后习题参考答案

答:信源 P(M1)= P(M2)= P(M3)= P(M4)=1/4, 信道为二元对称无记忆信道,消息 Mi 与码字一一 对应,所以设 M i = ( xi1 xi2 ) 设接收序列为 Y=(y1y2) 接收到第一个数字为 0,即 y1=0。那么,接收到第一个数字 0 与 M1 之间的互信息为
I ( M 1 ; y1 = 0) = log
所以 I ( M 1; y1 y2 = 00) = log
p2 = 2(1 + lbp ) 比特 1 4
得附加互信息为 I ( M 1; y2 = 0 | y1 = 0) = 1 + lbp 比特 2.6 证明如果随机变量空间 X、Y、Z 构成马尔科夫链,即 X-Y-Z,则有 Z-Y-X。 答:证明:因为(X,Y, Z)是马氏链,有 P(z|xy)=P(z|y),对所有 x ∈ X , y ∈ Y , z ∈ Z 成立,而 P(x|yz)=P(xyz)/P(yz) = P(z|xy) P(xy)/ P(y) P(z|y) = P(z|xy) P(y) P(x|y)/ P(y) P(z|y) 对所有 x ∈ X , y ∈ Y , z ∈ Z 成立
1.4 从香农信息论的角度看来,分别播送半小时新闻联播和半小时的轻音乐,听众接受到的 信息是否相同,为什么? 答:新闻联播是语言,频率为 300~3400Hz ,而轻音乐的频率为 20~20000Hz 。同样的时间内 轻音乐的采样编码的数据要比语音的数据量大,按码元熵值,音乐的信息量要比新闻大。但 是在信宿端,按信息的不确定度,信息量就应分别对待,对于新闻与音乐的信息量大小在广 义上说,因人而异。
1 3 1 p = × × 8 8 4
14
25
6
此消息的信息量是: I = − log p = 87.811 bit (2) 此消息中平均每符号携带的信息量是: I / n = 87.811/ 45 = 1.951 bit 2.8 一个信源发出二重符号序列消息(m, n) ,其中第一个符号 m 可以是 A、B、C 中任一个, 第二个符号 n 可以是 D、E、F、G 中的任一个。各信源符号概率及条件概率如题表 2.1 所示。 试求这个信源的联合熵 H(MN)。

信息论与编码课后习题答案

信息论与编码课后习题答案

1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。

解:该信源的香农线图为:1/3○ ○2/3 (x 1) 1 (x 2)在计算信源熵之前,先用转移概率求稳固状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p=)()(2132x p x p +)()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得431)(=x p 412)(=x p马尔可夫信源熵H = ∑∑-IJi j i jix x p x xp x p )(log )()( 得 H=0.689bit/符号2.设有一个无经历信源发出符号A 和B ,已知4341)(.)(==B p A p 。

求:①计算该信源熵;②设该信源改成发出二重符号序列消息的信源,采纳费诺编码方式,求其平均信息传输速度; ③又设该信源改成发三重序列消息的信源,采纳霍夫曼编码方式,求其平均信息传输速度。

解:①∑-=Xiix p x p X H )(log )()( =0.812 bit/符号②发出二重符号序列消息的信源,发出四种消息的概率别离为1614141)(=⨯=AA p 1634341)(=⨯=AB p1634143)(=⨯=BA p 1694343)(=⨯=BB p用费诺编码方式 代码组 b i BB 0 1 BA 10 2 AB 110 3 AA 111 3无经历信源 624.1)(2)(2==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号BX H R )(22==0.963 bit/码元时刻③三重符号序列消息有8个,它们的概率别离为641)(=AAA p 643)(=AAB p 643)(=BAA p 643)(=ABA p 649)(=BBA p 649)(=BAB p 649)(=ABB p 6427)(=BBB p用霍夫曼编码方式 代码组 b iBBB 6427 0 0 1 BBA 649 0 )(6419 1 110 3BAB 649 1 )(6418 )(644 1 101 3ABB 649 0 0 100 3AAB 6431 )(6461 11111 5 BAA 643 0 1 11110 5ABA6431 )(6440 11101 5 AAA641 0 11100 5)(3)(3X H X H ==2.436 bit/三重符号序列 3B =2.469码元/三重符号序列3R =BX H )(3=0.987 bit/码元时刻3.已知符号集合{ 321,,x x x }为无穷离散消息集合,它们的显现概率别离为 211)(=x p ,412)(=x p 813)(=x p ···ii x p 21)(=···求: ① 用香农编码方式写出各个符号消息的码字(代码组); ② 计算码字的平均信息传输速度; ③ 计算信源编码效率。

信息论与编码课后答案

信息论与编码课后答案

.2.1 一 个 马 尔 可 夫 信 源 有 3 个 符 号 u u , u , 转 移 概 率 为 : p u | u1 1/2 ,1, 231p u 2 | u 1 1/ 2 , p u 3 |u 1 0 , p u 1 | u 21/ 3, p u 2 |u 2 0 , p u 3 | u 2 2/3 ,p u 1 | u 31/ 3 , p u 2 |u 32/3 , p u 3 | u 30 ,画出状态图并求出各符号稳态概率。

解:状态图如下1/2u 11/2 u 21/3状态转移矩阵为:1/32/31/ 2 1/ 2 02/3p1/ 30 2 / 3u 3 1/ 32 /3 0设状态 u u2 u 稳定后的概率分别为 W , W 、 W31, , 312111W 1 10 W 1W 2 W 3 233W 1WP W 1W 12W 3 W 225计算可得 9由W 2W 3 1 得 23W 2W 12W 325W 2 63W 3W 1 W 2 W 3 1252.2 由符号集 {0,1}组成的二阶马尔可夫链,其转移概率为:p(0 | 00) =0.8 , p(0 |11) =0.2 ,p(1| 00) =0.2 , p(1|11) =0.8 , p(0 |01) =0.5 , p(0 |10) =0.5 , p(1| 01) =0.5 , p(1|10) =0.5 。

画出状态图,并计算各状态的稳态概率。

解: p(0 |00)p(00 | 00) 0.8 p(0 | 01) p(10 | 01) 0.5 p(0 |11)p(10 |11)0.2 p(0 |10)p(00 |10) 0.5p(1| 00) p(01| 00) 0.2 p(1| 01) p(11| 01) 0.5 p(1|11)p(11|11)0.8p(1|10)p(01|10)0.5.0.8 0.2 00000.5 0.5于是可以列出转移概率矩阵:p0.5 0.5 000 0 0.2 0.8状态图为:0.8 00 0.2010.5 0.50.50.510 0.211 0.8设各状态00, 01, 10, 11 的稳态分布概率为W ,W W W4 有1 2, 3,W1 50.8W1 0.5W 3 W1 14WP W 0.2W1 0.5W 3 W 2 W 2 1 74 得0.5W 2 0.2W 4 W 3 计算得到W i 1 10.5W 2 0.8W 4 W 4 W 3i 1 7W1 W 2 W 3 W 4 1W 45 14X x1 0 x21 x2 x432.7 设有一离散无记忆信源,其概率空间为3P 3/8 1/ 4 1/ 4 1/8( 1)求每个符号的自信息量( 2)信源发出一消息符号序列为{202 120 130 213 001 203 210 110 321 010 021 032 011 223 210},求该序列的自信息量和平均每个符号携带的信息量解: I ( x1) log 2 1 log 2 8 1.415bitp( x1) 3同理可以求得I ( x2) 2bit , I (x3) 2bit , I ( x3)3bit因为信源无记忆,所以此消息序列的信息量就等于该序列中各个符号的信息量之和就有: I 14I ( x1) 13I (x2) 12I (x3) 6I ( x4 )87.81bit平均每个符号携带的信息量为87.811.95 bit/符号452.11 有一个可以旋转的圆盘,盘面上被均匀的分成38 份,用 1 ,,38 的数字标示,其中有两份涂绿色,18 份涂红色, 18 份涂黑色,圆盘停转后,盘面上的指针指向某一数字和颜色。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

p(V|x=-1)
1/2
p(V|x=1)
0
0 1/2
0 1/2 1/2
1 1/4
1 0 1/2
H (V ) 1 log 2 1 2log 4 1.5 bit
2
4
H (V | X ) 1 [1 l o g2 1 l o g2] 2 =1 bit
22
2
I (X ;V ) = H(V ) H(V | X ) = 0.5 bit
证明:(a) 由于 Q1(x) 和 Q2 (x) 是同一事件集 U 上的两个概率分布,于是
q1(x) 0, q2 (x) 0
q1(x)dx =1, q2 (x)dx =1
解:
即 I(u1;0) , I(u1;00) , I(u1;000) , I (u1;0000)
p(0) = 1 (1 p) 4 + 1 p 4 = 1
8
8
2
I(u1;0) = log
p(0 | u1) p(0)
=
log
1
1
p
=1+ log(1
p)
bit
2
p(00) = 1[2(1 p)2 4(1 p) p 2 p2 ]= 1

p(
y

i
i为奇数)

1 10

p(
y

i
i为偶数)

1 10
(
1 2

1 8

1 8

1 8

1) 8

1 10
即输出等概,则 H (Y ) = log 10
H(Y | X ) =
p(xi y j ) log p( y j | xi )
i
j
=
p(xi y j ) log p( y j | xi ) -
2.29 令 Q1(x) 和 Q2 (x) 是同一事件集 U 上的两个概率分布,相应的熵分别为 H (U )1和 H(U)2 。 (a)对于 0 1,证明 Q(x) = Q1(x) + (1 ) Q2 (x) 是概率分布 (b) H(U) 是相应于分布 Q(x) 的熵,试证明 H(U) H (U )1+ (1 ) H(U)2
8
4
I(u1;00) = log
p(00 | u1) p(00)
= log (1 p)2 1/ 4
= 2[1 log(1 p)]
bit
p(000) = 1[(1 p)3 3(1 p)2 p 3(1 p) p2 p3 ] = 1
8
8
I(u1;000) =3[1+ log(1 p) ] bit
解:令第一第二第三颗骰子的结果分别为 x1, x2 , x3 , x1, x2 , x3 相互独立, 则 X x1 , Y x1 x2 , Z x1 x2 x3
H (Z | Y ) = H(x3 ) = log 6=2.585 bit
H(Z | X ) = H(x2 x3 ) = H (Y )
=3.5993 bit
I(Y; Z) = H(Z) - H (Z | Y ) = H(Z) - H(X ) =1.0143 bit
I (X ; Z) = H(Z) - H(Z | X ) = H(Z) - H (Y ) =0.3249 bit
I(X ,Y; Z) = H(Z) - H(Z | XY) = H(Z) - H(X ) =1.0143 bit
I(Y; Z | X ) = H(Z | X ) - H(Z | XY) = H (Y ) - H(X ) =0.6894 bit I(X ; Z | Y) = H (Z | Y ) - H(Z | XY) = H(X ) - H(X ) =0 bit
2.14 对于任意概率事件集 X,Y,Z,证明下述关系式成立 (a) H(Y, Z | X ) H(Y | X ) + H(Z | X ) ,给出等号成立的条件
= 1 1 1 log 1 dy 1 3 1 log 1dy =2 bit
2 3 4 4
2 1 4 4
I (X ;Y ) = HC (Y) - HC (Y | X ) =0.5 bit
(c) 由 ( y) 可得到 V 的分布律
V
-1
p
1/4
再由=
13!413 A5123
413 = C5123
信息量=
log
C 13 52

log 413
=13.208
bit
2.9 随机掷 3 颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示 3 颗骰子的点数之和,试求 H(Z | Y) 、 H(X | Y) 、
H(Z | X,Y) 、 H(X,Z | Y) 、 H(Z | X ) 。
1 8
1

y

3
0else
(b)
H
C
(Y
)
=
1 8
1
log
8

2

1
3
4
1
log 4 =2.5 bit
1
1
HC (Y | X ) = p(x 1) 3 p(y | x 1)log p(y | x 1)dy
3
p(x 1) p(y | x 1)log p(y | x 1)dy 1
=- p(xyz)log p( y | x) - p(xyz) log p(z | xy)
xyz
xyz
= H(Y | X ) + H(Z | XY)
(c) H(Z | X ,Y) =- p(xyz) log p(z | xy) xyz
= p(xy) [- p(z | xy) log p(z | xy) ]
p(xi y j ) log p( y j | xi )
j i偶
j i奇
=0-
p(xi y j ) log p( y j | xi )
j i奇
= - p(xi )p( yi | xi ) log p( yi | xi ) -
p(xi ) p( y j | xi ) log p( y j | xi )
1 4
,2

y

x

2
,求:
0, 其他
(a)Y 的概率密度 ( y)
(b) I (X ;Y )
(c) 若对 Y 做如下硬判决 1, y 1
V 0,1 y 1 1, y 1
求 I (X ;V ) ,并对结果进行解释。
解:(a) 由已知,可得
p( y
xy
z
p(xy) [- p(z | x) log p(z | x) ]
xy
z
=- p(xyz) log p(z | x) xyz
= H(Z | X )
当 p(z | xy) = p(z | x) ,即 X 给定条件下,Y 与 Z 相互独立时等号成立
(a) 上式(c)左右两边加上 H(Y | X ) ,可得
(b) H(Y, Z | X ) = H(Y | X ) + H(Z | X ,Y)
(c) H(Z | X ,Y) H(Z | X )
证明:(b) H(Y, Z | X ) =- p(xyz) log p( yz | x) xyz =- p(xyz) log[ p( y | x) p(z | xy)] xyz
=2( 1 log 36+ 2 log 18+ 3 log 12+ 4 log 9+ 5 log 36 )+ 6 log 6
36
36
36
36
36 5 36
=3.2744 bit
H(X | Y) = H(X ) - I (X ;Y ) = H(X ) -[ H (Y ) - H(Y | X ) ] 而 H(Y | X ) = H(X ) ,所以 H(X | Y) = 2 H(X ) - H (Y ) =1.8955 bit 或 H(X | Y) = H(XY) - H (Y ) = H(X ) + H(Y | X ) - H (Y ) 而 H(Y | X ) = H(X ) ,所以 H(X | Y) =2 H(X ) - H (Y ) =1.8955 bit H(Z | X ,Y) = H (Z | Y ) = H(X ) =2.585 bit H(X , Z | Y) = H(X | Y) + H(Z | XY) =1.8955+2.585=4.4805 bit
i1,3,5,7,9
i j i=1,3,5,7,9
= 1 1 log 25+ 1 1 1 log 845
10 2
10 2 4
= 1 3 =1 bit 44
I (X ;Y ) = H (Y ) - H(Y | X ) = log 10 -1= log 5=2.3219 bit
H(Y | X ) + H(Z | X ,Y) H(Y | X ) + H(Z | X )
于是 H(Y, Z | X ) H(Y | X ) + H(Z | X )
1,1
2.28
令概率空间
X

1 ,
1

,令
Y
是连续随机变量。已知条件概率密度为
2 2
p(
y
|
x)


p(0 0 0)0= 1[(1 p)4 6(1 p)2 p2 p4 ] 8
I (u1;0
0
0)0=
相关文档
最新文档