信息论习题.doc

信息论习题.doc
信息论习题.doc

信息理论基础习题集【考前必看】

一、 判断:

1、必然事件和不可能事件的自信息量都是0 。

2、 自信息量是的单调递减函数。

3、 单符号离散信源的自信息和信源熵都具有非负性。

4、 单符号离散信源的自信息和信源熵都是一个确定值。

5、单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的

6、自信息量、条件自信息量和联合自信息量之间有如下关系:

7、自信息量、条件自信息量和互信息量之间有如下关系:

8、当随机变量X 和Y 相互独立时,条件熵等于信源熵。 9、当随机变量X 和Y 相互独立时,I (X ;Y )=H (X )。 10、信源熵具有严格的下凸性。

11、平均互信息量I (X ;Y )对于信源概率分布p (x i )和条件概率分布p (y j /x i )都具有凸函数性。

12、m 阶马尔可夫信源和消息长度为m 的有记忆信源,其所含符号的依赖关系相同。

13、利用状态极限概率和状态一步转移概率来求m 阶马尔可夫信源的极限熵。

14、定长编码的效率一般小于不定长编码的效率。

15、信道容量C 是I (X ;Y )关于p (x i )的条件极大值。

16、离散无噪信道的信道容量等于log 2n ,其中n 是信源X 的消息个数。 17、信道无失真传递信息的条件是信息率小于信道容量。

18、最大信息传输速率,即:选择某一信源的概率分布(p (x i )),使信道所能传送的信息率的最大值。

19、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。

20、率失真函数对允许的平均失真度具有上凸性。 21、信源编码是提高通信有效性为目的的编码。

22、信源编码通常是通过压缩信源的冗余度来实现的。 23、离散信源或数字信号的信源编码的理论基础是限失真信源编码定理。 24、一般情况下,哈夫曼编码的效率大于香农编码和费诺编码。

25、在编m (m>2)进制的哈夫曼码时,要考虑是否需要增加概率为0的码字,以使平均码长最短。

)(i x p )

/()()/()()(j i j i j i j i y x I y I x y I x I y x I +=+=)

/()()/()();(i j j j i i j i x y I y I y x I x I y x I -=-=

26、对于BSC 信道,信道编码应当是一对一的编码,因此,消息m 的长度等于码字c 的长度。

27、汉明码是一种线性分组码。 28、循环码也是一种线性分组码。 29、卷积码是一种特殊的线性分组码。

30、可以用克劳夫特不等式作为唯一可译码存在的判据。() 31、线性码一定包含全零码。()

32、确定性信源的熵H(0,0,0,1)=1。()

33、信源X 的概率分布为P(X)={1/2, 1/3, 1/6},对其进行哈夫曼编码得到的码是唯一的。

()

34、离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。() 35、非奇异的定长码一定是唯一可译码。()

36、信息率失真函数R(D)是在平均失真不超过给定失真限度D 的条件下,信息率容许压缩的最小值。 ()

37、信源X 的概率分布为P(X)={1/2, 1/3, 1/6},信源Y 的概率分布为P(Y)={1/3,1/2,1/6},则 信源X 和Y 的熵相等。()

38、互信息量I(X;Y)表示收到Y 后仍对信源X 的不确定度。()

39、对信源符号X={a 1,a 2,a 3,a 4}进行二元信源编码,4个信源符号对应码字的码长分别为K 1=1,K 2=2,K 3=3,K 3=3,满足这种码长组合的码一定是唯一可译码。 ()

40、设C = {000000, 001011, 010110, 011101, 100111, 101100, 110001, 111010}是一个二元线

性分组码,则该码最多能检测出3个随机错误。()

二、选择题(共10 分,每题2分)

1.下面表达式中正确的是()。 A.∑=j

i j

x y

p 1)/( B.∑=i

i j x y p 1)/(

C.

∑=j

j

j

i

y y x p )(),(ω D.∑=i

i

j

i

x q y x p )(),(

4.线性分组码不具有的性质是()。 A.任意多个码字的线性组合仍是码字 B.最小汉明距离等于最小非0重量 C.最小汉明距离为3

D.任一码字和其校验矩阵的乘积c m H T =0 5.率失真函数的下限为()。

A .H(U) B.0 C.I(U; V) D.没有下限 6.纠错编码中,下列哪种措施不能减小差错概率()。

A. 增大信道容量

B. 增大码长

C. 减小码率

D. 减小带宽

7.一珍珠养殖场收获240颗外观及重量完全相同的特大珍珠,但不幸被人用外观相同但重量仅有微小差异的假珠换掉1颗。一人随手取出3颗,经测量恰好找出了假珠,不巧假珠又滑落进去,那人找了许久却未找到,但另一人说他用天平最多6次能找出,结果确是如此,这一事件给出的信息量()。

A. 0bit

B. log6bit

C. 6bit

D. log240bit

8.下列陈述中,不正确的是()。

A.离散无记忆信道中,H(Y)是输入概率向量的凸函数

B.满足格拉夫特不等式的码字为惟一可译码

C.一般地说,线性码的最小距离越大,意味着任意码字间的差别越大,则码的检错、

纠错能力越强

D.满足格拉夫特不等式的信源是惟一可译码

10.下列离散信源,熵最大的是()。

A. H(1/3,1/3,1/3);

B. H(1/2,1/2);

C. H(0.9,0.1);

D. H(1/2,1/4,1/8,1/8)

11.下列不属于消息的是()。

A.文字

B.信号

C.图像

D.语言

12.为提高通信系统传输消息有效性,信源编码采用的方法是()。

A.压缩信源的冗余度

B.在信息比特中适当加入冗余比特

C.研究码的生成矩阵

D.对多组信息进行交织处理

13.最大似然译码等价于最大后验概率译码的条件是()。

A.离散无记忆信道

B.无错编码

C.无扰信道

D.消息先验等概

14.下列说法正确的是()。

A.等重码是线性码

B.码的生成矩阵唯一

C.码的最小汉明距离等于码的最小非0重量

D.线性分组码中包含一个全0码字

15.二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,u0:一个0发出u1:一个1发出v0 :一个0收到v1:一个1收到

则已知收到的符号,被告知发出的符号能得到的信息量是()。

A. H(U/V)

B. H(V/U)

C. H(U,V)

D. H(UV)

16. 同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为()。

A. -log36bit

B. log36bit

C. -log (11/36)bit

D. log (11/36)bit

17.下列组合中不属于即时码的是()。

A. { 0,01,011}

B. {0,10,110}

C. {00,10,11}

D. {1,01,00}

18.已知某(6,3)线性分组码的生成矩阵???

?

??????=011101110001111010G ,则不用计算就可判断出下列码中

不是该码集里的码是()。

A. 000000

B. 110001

C. 011101

D. 111111

20.设有一个无记忆信源发出符号A 和B ,已知4

3

41)(,)(==B p A p ,发出二重符号序列消息的信源,无记忆信源熵)(2X H 为()。

A.0.81bit/二重符号

B.1.62bit/二重符号

C.0.93 bit/二重符号 D .1.86 bit/二重符号 21.给定x i 条件下随机事件y j 所包含的不确定度和条件自信息量p (y j /x i ),()

A .数量上不等,单位不同

B .数量上不等,单位相同

C .数量上相等,单位不同

D .数量上相等,单位相同 22.条件熵和无条件熵的关系是:

()

A .H (Y /X )<H (Y )

B .H (Y /X )>H (Y )

C . H (Y /X )≤H (Y )

D .H (Y /X )≥H (Y ) 23.根据树图法构成规则,

()

A .在树根上安排码字

B .在树枝上安排码字

C . 在中间节点上安排码字

D .在终端节点上安排码字 24.下列说法正确的是:

()

A .奇异码是唯一可译码

B .非奇异码是唯一可译码

C . 非奇异码不一定是唯一可译码

D .非奇异码不是唯一可译码 25.下面哪一项不属于熵的性质:

()

A .非负性

B .完备性

C .对称性

D .确定性

三、二元对称信道如图。

1)若()4

30=p ,()41

1=p ,求()X H 、()Y X H |和()Y X I ;;

2)求该信道的信道容量。

解:1)共6分

2),此时输入概率分布为等概率分布。

四、已知信源

()符号/749.0|bit Y X H =

1234560.20.20.20.20.10.1S s s s s s s P ????=????????

(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分)

(3)计算编码信息率R ';(2分)

(4)计算编码后信息传输率R ;(2分) (5)计算编码效率η。(2分)

(1)

010

10

1

1

1

1.00.20.20.20.20.10.1

1S 2S 3S 4S 5S 6

S

编码结果为:

1234560001100101110111

S S S S S S ====== (2)6

1

0.420.63 2.6i i i L P ρ===?+?=∑码元符号

(3)bit log r=2.6R L '=符号 (4)() 2.53

bit 0.9732.6

H S R L

=

=

=码元其中,()()bit

0.2,0.2,0.2,0.2,0.1,0.1 2.53H S H ==符号

(5)()()0.973log H S H S L r

L

η=

=

=

五、一个一阶马尔可夫信源,转移概率为【说明:以书上的解法为准】

()()()()1121122221

|,|,|1,|033

P S S P S S P S S P S S ====。

(1) 画出状态转移图。 (2) 计算稳态概率。

(3) 计算马尔可夫信源的极限熵。 (4) 计算稳态下1H ,2H 及其对应的剩余度。 解:(1)

13

(2)由公式()()()2

1

|i i j j j P S P S S P S ==∑

有()()()()()()()()()()()2

111212

2211122|31

|31i i i i i i P S P S S P S P S P S P S P S S P S P S P S P S ==?

==+??

?==??

?+=??

∑∑

得()()12

3414

P S P S ?

=????=??

(3)该马尔可夫信源的极限熵为:

()()()

22

11

|log |322311log log

43343311

0.578 1.599240.6810.4720.205i j i j i i j H P S P S S P S S bit nat hart ∞===-=-??-??=?+?===∑∑符号

(4)在稳态下:

()()2

1

3

311log log log 0.8114444i i i P x P x bit =??=-=-?+?= ???∑符号

20.2050.4720.681H H hart nat bit ∞====符号符号 对应的剩余度为

1100.811110.1891111log log 2222H H η=-

=-=??

????-+ ? ? ??????? 2200.681110.3191111log log 2222H H η=-

=-=??

????-+ ? ? ???????

六、设X 、Y 是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算

(1) ()(),;H X H Z (2) ()(),;H XY H XZ (3) ()()|,|;H X Y H Z X (4) ()();,;I X Y I X Z ; 解:(1)

()11,122H X H bit ??

== ???

31(2),0.811344H H bit ??

== ???

(2) ()()()112H XY H X H Y bit =+=+=对

()()()()1111|11,0, 1.52222H XZ H X H Z X H H bit ??

=+=++= ???

(3)()()|1H X Y H X bit ==

()()1111|1,0,0.52222H Z X H H bit ??

=

+= ???

(4) ()()()()(),|0I X Y H Y H Y X H Y H Y =-=-=

()()(),|0.81130.50.3113I X Z H Z H Z X bit =-=-=

七、12()0.50.5X x x P X ????=????????

,通过一个干扰信道,接受符号集为{}

1

2Y y y =,

信道转移矩阵为1

34

4314

4??

??

?

???????

试求:

(1)H(X),H(Y),H(XY); (2) H(Y|X),H(X|Y);

(3) I(Y;X)。

(4)该信道的容量C

(5)当平均互信息量达到信道容量时,接收端Y 的熵H (Y )。 计算结果保留小数点后2位,单位为比特/符号。

八、设有离散无记忆信源

??????=??????02005008010015018020022087654321

........s s s s s s s s P S ,试对信源进行四元Huffman 编码,求信源熵H(S),平均码长和编码效率。(编码时码树各分枝概率从大到小分别编0至3码)(15分)

信息论试题1

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X,其概率分布为 123 x x x X 111 P 244 ?? ?? ? = ?? ? ?? ?? ,其信源剩余度为94.64%;若 对该信源进行十次扩展,则每十个符号的平均信息量是15bit。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log(b-a)bit/自由度;若放大器的最高频率为F,则单位时间内输出的最大信息量是2Flog (b-a)bit/s. 5.若某一信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵 的最大值为1 log32e 2 π;与其熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r(S))。 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论及编码理论习题答案

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它 的信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少 信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p = 366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )( b p = 36 1 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13牌,所给出的点数都不相同时得到多少信息量?

解:(a) )(a p = ! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52 134!13A ?=135213 4C 信息量=1313 52 4log log -C =13.208 bit 2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、 ),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H

信息论与编码理论习题答案

信息论与编码理论习题 答案 LG GROUP system office room 【LGA16H-LGYY-LGUA8Q8-LGA162】

第二章 信息量和熵 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速 率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少信息 量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log = bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log = bit 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log = bit (b) ? ??????花色任选种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C = bit 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和, Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、 )|,(Y Z X H 、)|(X Z H 。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(36 1 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: * (3)信源空间: bit x H 32.436log 36 16236log 36215)(=??+?? =∴

bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== ? 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: ! bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量平均每个回答中各含有多少信息量如果你问一位女士,则她的答案中含有多少平均信息量 解:

信息论考题及答案

一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+= 证明:设P(x,y)=P(x)P(y),则有 1 H(X,Y)()()log P()()11()()log ()()log ()()11()log ()log ()() ()() xy xy xy x y P x P y x P y P x P y P x P y P x P y P x P y P x P y H X H Y ==+=+=+∑∑∑∑∑ 二、(50分)联合总体X ,Y 具有如下联合分布。 X Y 分别计算 (1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少? (3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少? 解答:(1) H(X,Y)=3.375 (2) H(X)=2, H(Y)=1.75 (3) H(X|y=1)=2,H(X|y=1)=1.875,H(X|y=1)=1.875, H(X|y=4)=0.5 (4)H(X|Y)=1.1264 (5)I(X;Y)=H(X)-H(X|Y)=2-1.1264=0.8736 三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。输入总体为x Ω:{0P =0.9,1p =0.1},假设观察到y=1,请计算(1|1)P x y ==? 解: (1|1)P x y === (1|1)(1) (1|)() x P y x P x P y x P x ===∑= = 9.015.01.085.01 .085.0?+?? =22 .0085 .0=0.39

信息论与编码习题与答案第二章

第一章 信息、消息、信号的定义?三者的关系? 通信系统的模型?各个主要功能模块及作用? 第二章 信源的分类? 自信息量、条件自信息量、平均自信息量、信源熵、不确定度、条件熵、疑义度、噪声熵、联合熵、互信息量、条件互信息量、平均互信息量以及相对熵的概念?计算方法? 冗余度? 具有概率为)(x i p 的符号x i 自信息量:)(log )(x x i i p I -= 条件自信息量:)(log )( y x y x i i i i p I -= 平均自信息量、平均不确定度、信源熵:∑-=i i i x x p p X H )(log )()( 条件熵:)(log ),()(),()(y x y x y x y x j i j ij i j i j ij i p p I p Y X H ∑∑-== 联合熵:),(log ),(),(),()(y x y x y x y x j i j ij i j i j ij i p p I p Y X H ∑∑-== 互信息:) ()(log )()() ()(log ),();(y x y x y x y x y y x j i j i j ij i j i j j ij i p p p p p p p Y X I ∑∑= = 熵的基本性质:非负性、对称性、确定性 2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。 解:(1) bit x p x I x p i i i 170.418 1 log )(log )(18 1 61616161)(=-=-== ?+?= (2) bit x p x I x p i i i 170.536 1 log )(log )(361 6161)(=-=-== ?=

信息论习题集(陈运).doc

信息论习题集 一、名词解释(25道) 1、“本体论”的信息(P2) 2、“认识论”信息(P2) 3、离散信源(P7) 4、自信息量(P9) 5、离散平稳无记忆信源(P39) 6、马尔可夫信源(P46) 7、信源冗余度 (P51) 8、连续信源 (P52) 9、信道容量 (P73) 10、强对称信道 (P75-76) 11、对称信道 (P78)12、多符号离散信道(P83) 13、连续信道 (P95) 14、平均失真度 (P105) 15、实验信道 (P107) 16、率失真函数 (P107) 17、信息价值率 (P127) 18、游程序列 (P143) 19、游程变换 (P143) 20、L-D 编码(P146)、 21、冗余变换 (P146) 22、BSC 信道 (P171) 23、码的最小距离 (P174)24、线性分组码 (P175) 25、循环码 (P188) 二、填空(100道) 1、 在认识论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素。 2、 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 3、 按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。 4、 按照信息的地位,可以把信息分成 客观信息和主观信息 。 5、 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 6、 信息的 可度量性 是建立信息论的基础。 7、 统计度量 是信息度量最常用的方法。 8、 熵 是香农信息论最基本最重要的概念。 9、 事物的不确定度是用时间统计发生 概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H ) /(lim 121-∞→N N N X X X X H Λ。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log 2(b-a ) 。 21、平均功率为P 的高斯分布的连续信源,其信源熵,H c (X )=eP π2log 212。 22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功率P 之比 。 25、若一离散无记忆信源的信源熵H (X )等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 26、m 元长度为k i ,i=1,2,···n 的异前置码存在的充要条件是:∑=-≤n i k i m 11。

信息论基础及答案

《信息论基础》试卷第1页 《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞-∞ ?→∞ --?? ) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x - )时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或 1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此 时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

信息论与编码课后习题答案

1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。 解:该信源的香农线图为: 1/3 ○ ○ 2/3 (x 1) 1 (x 2) 在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p =)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得4 3 1)(=x p 4 12)(=x p 马尔可夫信源熵H = ∑∑- I J i j i j i x x p x x p x p )(log )()( 得 H=0.689bit/符号 2.设有一个无记忆信源发出符号A 和B ,已知4 341)(.)(= =B p A p 。求: ①计算该信源熵; ②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。 解:①∑- =X i i x p x p X H )(log )()( =0.812 bit/符号 ②发出二重符号序列消息的信源,发出四种消息的概率分别为 用费诺编码方法 代码组 b i BB 0 1 BA 10 2 AB 110 3 AA 111 3 无记忆信源 624.1)(2)(2 ==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号 B X H R )(22==0.963 bit/码元时间 ③三重符号序列消息有8个,它们的概率分别为 用霍夫曼编码方法 代码组 b i BBB 64 27 0 0 1 BBA 64 9 0 )(6419 1 110 3

信息论习题

信息论习题 文档编制序号:[KK8UY-LL9IO69-TTO6M3-MTOL89-FTT688]

信息理论基础习题集【考前必看】 一、 判断: 1、 必然事件和不可能事件的自信息量都是0 。 2、 自信息量是)(i x p 的单调递减函数。 3、 单符号离散信源的自信息和信源熵都具有非负性。 4、 单符号离散信源的自信息和信源熵都是一个确定值。 5、单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的 6、自信息量、条件自信息量和联合自信息量之间有如下关系: ) /()()/()()(j i j i j i j i y x I y I x y I x I y x I +=+= 7、自信息量、条件自信息量和互信息量之间有如下关系: ) /()()/()();(i j j j i i j i x y I y I y x I x I y x I -=-= 8、当随机变量X 和Y 相互独立时,条件熵等于信源熵。 9、当随机变量X 和Y 相互独立时,I (X ;Y )=H (X ) 。 10、信源熵具有严格的下凸性。 11、平均互信息量I (X ;Y )对于信源概率分布p (x i )和条件概率分布p (y j /x i )都具有凸函数性。 12、m 阶马尔可夫信源和消息长度为m 的有记忆信源,其所含符号的依赖关系相同。 13、利用状态极限概率和状态一步转移概率来求m 阶马尔可夫信源的极限熵。 14、定长编码的效率一般小于不定长编码的效率。 15、信道容量C 是I (X ;Y )关于p (x i )的条件极大值。 16、离散无噪信道的信道容量等于log 2n ,其中n 是信源X 的消息个数。 17、信道无失真传递信息的条件是信息率小于信道容量。 18、最大信息传输速率,即:选择某一信源的概率分布(p (x i )),使信道所能传送的信息率的最大值。 19、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。 20、率失真函数对允许的平均失真度具有上凸性。 21、信源编码是提高通信有效性为目的的编码。 22、信源编码通常是通过压缩信源的冗余度来实现的。 23、离散信源或数字信号的信源编码的理论基础是限失真信源编码定理。

信息论试卷题目及标准答案

信息论试卷题目及答案

————————————————————————————————作者:————————————————————————————————日期: 2

中国海洋大学2008—2009学年第一学期 一、填空题(每空2分,共20分) 1、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 2、信源编码的目的是提高通信的有效性。信道编码的最终目的是提高信号传输的可靠性。 3、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的N 倍。 4、对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是香农编码。 5、信道输入与输出间的平均互信息是信道转移概率的 下凸 函数,是输入概率的 上凸 函数。 6、信道矩阵??????10002/12/1代表的信道的信道容量C=符号/1bit ,达到信道容量的条件是输入符号等概分布。 7、 设某二进制码{00011,10110,01101,11000,10010,10001},则码的最小距离是2 ,假设码字等概分布,则该码的码率为 0.517比特/符号 ,这时若通过二元对称信道接收码字为01100和00110时,应译为01101 , 10110 。。 二、判断题(每题2分,共10分) 1、必然事件和不可能事件的自信息量都是0 。(错) 2、最大后验概率准则与最大似然准则是等价的。(错) 3、如果信息传输速率大于信道容量,就不存在使传输差错率任意小的信道编码。(对) 4、连续信源和离散信源的熵都具有非负性。(错) 5、相同功率的噪声中,高斯噪声使信道容量最小。(对) 三、简答题(第1、2题各6分,第三题10分,共22分) 1、简述最大离散熵定理。对于一个有m 个符号的离散信源,其最大熵是什么? 答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 (3分) 最大熵值为 m H 2max log = (3分) 2、对于任意概率事件集X 、Y 、Z ,证明下述三角不等式成立()()()Z X H Z Y H Y X H ≥+ 证:因为)|()|(Y X H YZ X H ≤ ,(3分) 所以: ) |()|()|() |,() |()|()|()|(Z Y H XZ Y H Z Y H Z Y X I YZ X H Z X H Y X H Z X H ≤-==-≤-(3分)

信息论与编码试题集与答案

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。 按照信息的地位,可以把信息分成客观信息和主观信息。 人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。 信息的可度量性是建立信息论的基础。 统计度量是信息度量最常用的方法。 熵是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是∞。 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a)。

信息论习题

信息论第一章习题 1-1 设某班学生在一次考试中获优(A )、良(B )、中(C )、及格(D )和不及格(E )的人数相等。当教师通知某甲:“你没有不及格”,甲获得了多少比特信息?为确定自己的成绩,甲还需要多少信息? 1-2 一个号码锁有3个数字,每个数字可设置为0~99(含0和99)中的任何一个整数值。试计算打开该锁所需的信息。 1-3 中国国家标准局所规定的二级汉字共6763个。设每字使用的频度相等,求一个汉字所含的信息量。设每个汉字用一个1616?的二元点阵显示,试计算显示方阵所能表示的最大信息。显示方阵的利用率是多少? 1-4 一信源有4种输出数符:3,2,1,0 ,==i i X i ,且4/1=i X P 。设信源向信宿发 出3X ,但由于传输中的干扰,接收者收到3X 后,认为其可信度为0.9。于是信源再次向信宿发送该数符(3X ),信宿无误收到。问信源在两次发送中发出的信息量各是多少?信宿在两次接收中得到的信息量又各是多少?(提示:先计算第二次传输中收、发的信息量。) 1-5 一信源有6种输出状态,概率分别为 5.0=A P 25.0=B P 125.0=C P 05.0==E D P P 025.0=F P 试计算)(X H 。然后求消息ABABBA 和FDDFDF 中的信息量(设信源先后发出的符号相互独立),并将之与6位消息的信息量期望值相比较。 1-6 重做1-5题,但取 4.0=A P 2.0=B P 12.0=C P 1.0==E D P P 08.0=F P 。 1-7 两个信源1S 和2S 均有两种输出:1 ,0=X 和1 ,0=Y ,概率分别为 2/110==X X P P ,4/10=Y P ,4/31 =Y P 。试计算)(X H 和)(Y H 。设1S 发出序列0101,2S 发出0111,如传输过程无误,第一个字符传送结束后,相应的两个信宿分别收到多少信息量?当整个序列传送结束后,收到的总信息量

信息论考试题

2009-2010学年第二学期末考试试题 信息论与编码理论 一、(共10分) 简述最大熵原理与最小鉴别信息原理,并说明两者之间的关系。 二、(共12分) 某一无记忆信源的符号集为{0, 1},已知P(0) = 1/4,P(1) = 3/4。 1) 求符号的平均熵; 2) 有100个符号构成的序列,求某一特定序列(例如有m个“0”和(100 - m)个“1”)的自信息量的表达式; 3) 计算2)中序列的熵。

三、(共12分) 一阶马尔可夫信源的状态图如下图所示。信源X 的符号集为{0, 1, 2}。 1) 求平稳后信源的概率分布; 2) 求)(X H ; 3) 求上述一阶马尔可夫信源的冗余度。 P P

四、(共10分) 设离散型随机变量XYZ 的联合概率满足xyz ?)()()()(y z p x y p x p xyz p =。 求证:);();(Z Y X I Y X I ≥ 五、(共12分) 设有一离散无记忆信道,输入信号为321,,x x x ,输出为321,,y y y ,其信道转移矩阵为???? ??????=214141412141414121Q ,61)(,32)(21==x P x P 。 试分别按理想译码准则与最大似然译码准则确定译码规则,并计算相应的平均译码差错概率。

六、(共14分) 设有一离散信道,输入X ,输出Y ,其信道转移矩阵为?? ????7.01.02.02.01.07.0, 求:1)信道的信道容量及达到信道容量时的输入分布? 2)当输入X 分布为7.0)(1=x P 3.0)(2=x P 时,求平均互信息);(Y X I 及信道疑义度)(X Y H 。

信息论与编码-习题解答

2.5 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量? 解: 设随机变量X 代表女孩子学历 X x 1(是大学生) x 2(不是大学生) P(X) 0.25 0.75 设随机变量Y 代表女孩子身高 Y y 1(身高>160cm ) y 2(身高<160cm ) P(Y) 0.5 0.5 已知:在女大学生中有75%是身高160厘米以上的 即:bit x y p 75.0)/(11= 求:身高160厘米以上的某女孩是大学生的信息量 即:bit y p x y p x p y x p y x I 415.15 .075 .025.0log )()/()(log )/(log )/(11111111=?-=-=-= 2.7 设有一离散无记忆信源,其概率空间为123401233/81/41/41/8X x x x x P ====???? = ? ????? (1)求每个符号的自信息量 (2)信源发出一消息符号序列为{202 120 130 213 001 203 210 110 321 010 021 032 011 223 210},求该序列的自信息量和平均每个符号携带的信息量 解:12 2118 ()log log 1.415()3 I x bit p x === 同理可以求得233()2,()2,()3I x bit I x bit I x bit === 因为信源无记忆,所以此消息序列的信息量就等于该序列中各个符号的信息量之和 就有:123414()13()12()6()87.81I I x I x I x I x bit =+++= 平均每个符号携带的信息量为 87.81 1.9545 =bit/符号 2.13 有两个二元随机变量X 和Y ,它们的联合概率为 并定义另一随机变量Z = XY (一般乘积),试计算: (1) H(X), H(Y), H(Z), H(XZ), H(YZ)和H(XYZ);

信息论习题集

信息论习题集 一、填空题 1、人们研究信息论的目的是为了高效、可靠安全地交换和利用各种 各样的信息。 2、单符号离散信源输出的消息一般用随机变量描述,而符号序列离散信源输出 的消息一般用随机矢量描述。 3、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 4、连续信源或模拟信号的信源编码的理论基础是限失真信源编码定理。 5、必然事件的自信息是 0 ,不可能事件的自信息量是∞。 6、信道的输出仅与信道当前的输入有关,而与过去输入无关的信道称为 无记忆信道。 d,则可以纠正任意小于等于t= -1 7、若纠错码的最小距离为{ EMBED Equation.3 |min 个差错。 8、必然事件的自信息量是 0 ,不可能事件的自信息量是∞。 9、一信源有五种符号{a,b,c,d,e},先验概率分别为=0.5,=0.25,=0.125,==0.0625。 符号“a”的自信息量为__1__bit,此信源的熵为____1.875____bit/符号。 10、已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出 2 个码元 错误,最多能纠正 1 个码元错误。 11、克劳夫特不等式是唯一可译码存在的充要条件。{00,01,10,11} 是否是唯一可译码?是。 12、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 13、对于离散无记忆信源,当信源熵有最大值时,满足条件为信源符号等 概分布。 二、选择题 1、下面哪一项不属于最简单的通信系统模型:(B) A.信源B.加密C.信道D.信宿 2、信道编码的目的是( B )。 A 提高通信系统的可靠性 B 提高通信系统的有效性 C 提高通信系统的保密性 D 提高通信系统的实时性 3、给定x i条件下随机事件y j所包含的不确定度和条件自信息量I(y j /x i),( C ) A数量上不等,含义不同 B 数量上不等,含义相同 C 数量上相等,含义不同 D 数量上相等,含义相同 4、下面哪一项不是增加信道容量的途径:(D) A 减小信道噪声功率 B 增大信号功率 C 增加码长 D 增加带宽 5、平均互信息量 I(X;Y)与信源熵和条件熵之间的关系是( A )。 A B C D 6、克劳夫特不等式是___A______的充要条件。 A判断唯一可译码 B 判断即时码

信息论习题

前三章习题 选择题 1、离散有记忆信源],[21x x X =,12()()0.5P x P x ==,其极限熵H ∞ C 。 A 、1bit > B 、1bit < C 、1bit = D 、不能确定 2、任意离散随机变量X 、Y 、Z , C 必定成立 A 、)|()|(XZ Y H YZ X H = B 、)()()()(Z H Y H X H XYZ H ++= C 、)|()|(Y X H YZ X H ≤ D 、0)|;(=Z Y X I 3、|Y X P 给定时,(;)I X Y 是X P 的 A 函数。 A 、上凸 B 、下凸 C 、上升 D 、下降 4、使(;)I X Y 达到最大的 D 称为最佳分布。 A 、联合分布 B 、后验分布 C 、输出分布 D 、输入分布 5、离散平稳无记忆信源],[21x x X =,且bit X H 1)(=,则=)(1x P D 。 A 、41 B 、2 C 、1 D 、2 1 6、=);(Y X I C 。 A 、)|()(X Y H X H - B 、)|()(Y X H Y H + C 、)|()(X Y H Y H - D 、)()(X H XY H - 7、通常所说的“连续信源”是指 B 信源。 A 、时间连续且取值连续的 B 、取值连续 C 、时间离散且取值连续的 D 、时间连续 8、已知信道,意味着已知 B 。 A 、 先验分布 B 、转移概率分布 C 、 输入输出联合概率分布 D 、输出概率分布 9、已知X Y P |,可求出 B A 、)(XY H B 、 )|(X Y H C 、);(Y X I D 、)|(i j x y I 10、连续信源的输出可用 D 来描述 A 、常量 B 、变量 C 、离散随机变量 D 、连续随机变量 11、101 )(=i x P ,则=)(i x I D 。 A 、bit 10ln B 、dit 10ln C 、dit 1 D 、dit 10log 12、信道容量表征信道的 A 。 A 、最大通过能力 B 、最大尺寸 C 、最小通过能力 D 、最小尺寸 13、DMS 的信息含量效率等于信源的实际熵 C 信源的最大熵。 A 、乘以 B 、减去 C 、除以 D 、加上 14、下面信道矩阵为准对称信道的是 。

信息论与编码试题集与答案(新)

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 (√ ) 2. 线性码一定包含全零码。 (√ ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 (√ ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 (√ ) 8. 信道容量是信道中能够传输的最小信息量。 (×) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 10. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方 法叫做最佳译码。 (√ )

信息论习题解答

第二章 信息量与熵 2、2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2、3 掷一对无偏骰子,告诉您得到的总的点数为:(a) 7; (b) 12。问各得到多少信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =)(1log a p =6log =2、585 bit (2) 可能的唯一,为 {6,6} )(b p =36 1 得到的信息量=)(1log b p =36log =5、17 bit 2、4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量就是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1log a p =!52log =225、58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =1352 134!13A ?=135213 4C 信息量=1313524log log -C =13、208 bit 2、9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一与第二颗骰子的点数之与,Z 表 示3颗骰子的点数之与,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立,则 1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2、585 bit )|(X Z H =)(32x x H +=)(Y H =2?(361log 36+362log 18+363log 12+364log 9+365log 536)+36 6log 6 =3、2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1、8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1、8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2、585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1、8955+2、585=4、4805 bit

相关文档
最新文档