信息论与编码理论第二章习题答案(王育民)

部分答案,仅供参考。

2.1信息速率是指平均每秒传输的信息量

点和划出现的信息量分别为3log ,2

3log ,

一秒钟点和划出现的次数平均为

4

15314.0322.01=

⨯+⨯

一秒钟点和划分别出现的次数平均为4

5.410

那么根据两者出现的次数,可以计算一秒钟其信息量平均为2

53log 4

153log 4

52

3log 4

10-=+

2.3 解:

(a)骰子A 和B ,掷出7点有以下6种可能:

A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量

-log(1/6)=1+log3≈2.58 bit

(b) 骰子A 和B ,掷出12点只有1种可能: A=6,B=6

概率为1/36,所以信息量

-log(1/36)=2+log9≈5.17 bit

2.5解:

出现各点数的概率和信息量:

1点:1/21,log21≈4.39 bit ; 2点:2/21,log21-1≈3.39 bit ; 3点:1/7,log7≈2.81bit ; 4点:4/21,log21-2≈2.39bit ; 5点:5/21,log (21/5)≈2.07bit ; 6点:2/7,log(7/2)≈1.81bit 平均信息量:

(1/21)×4.39+(2/21)×3.39+(1/7)×2.81+(4/21)×2.39+(5/21)×2.07+(2/7)×1.81≈2.4bit

2.7解:

X=1:考生被录取; X=0:考生未被录取; Y=1:考生来自本市;Y=0:考生来自外地; Z=1: 考生学过英语;Z=0:考生未学过英语

P(X=1)=1/4, P(X=0)=3/4; P(Y=1/ X=1)=1/2; P(Y=1/ X=0)=1/10;

P(Z=1/ Y=1)=1, P(Z=1 / X=0, Y=0)=0.4, P(Z=1/ X=1, Y=0)=0.4, P(Z=1/Y=0)=0.4 (a) P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=0.075, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)=0.125

P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)=0.2

P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=0.375, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=0.625 I (X ;Y=1)=∑∑=====x

x

)

P()

1Y /(P log

)1Y /(P )1Y (I )1Y /(P x x x x;x

=1)

P(X )

1Y /1X (P log

)1Y /1X (P 0)P(X )1Y /0X (P log

)1Y /0X (P =====+=====

=0.375log(0.375/0.75)+0.625log(0.625/0.25)=(5/8)log5-1≈0.45bit

(b) 由于P(Z=1/ Y=1)=1, 所以 P (Y=1,Z=1/X=1)= P (Y=1/X=1)=0.5 P (Y=1,Z=1/X=0)= P (Y=1/X=0)=0.1

那么P (Z=1/X=1)= P (Z=1,Y=1/X=1)+ P (Z=1,Y=0/X=1)=0.5+ P (Z=1/Y=0,X=1)P (Y=0/X=1)=0.5+0.5*0.4=0.7

P(Z=1/X=0)= P (Z=1,Y=1/X=0)+ P (Z=1,Y=0/X=0)=0.1+P(Z=1/Y=0,X=0)P(Y=0/X=0)=0.1+0.9*0.4=0.46

P (Z=1,X=1)= P (Z=1/X=1)*P(X=1)=0.7*0.25=0.175 P (Z=1,X=0)= P (Z=1/X=0)*P(X=0)= 0.46*0.75=0.345 P(Z=1) = P(Z=1,X=1)+ P(Z=1,X=0) = 0.52 P(X=0/Z=1)=0.345/0.52=69/104 P(X=1/Z=1)=35/104

I (X ;Z=1)=∑∑=====x

x )P()

1Z /(P log )1Z /(P )1Z (I )1Z /(P x x x x;x

=1)P(X )1Z /1X (P log )1Z /1X (P 0)P(X )1Z /0X (P log )1Z /0X (P =====+=====

=(69/104)log(23/26)+( 35/104)log(35/26) ≈0.027bit

(c)H (X )=0.25*log(1/0.25)+0.75*log(1/0.75)=2-(3/4)log3=0.811bit H(Y/X)=-P(X=1,Y=1)logP(Y=1/X=1) -P(X=1,Y=0)logP(Y=0/X=1)

-P(X=0,Y=1)logP(Y=1/X=0) -P(X=0,Y=0)logP(Y=0/X=0)

=-0.125*log0.5-0.125*log0.5-0.075*log0.1-0.675*log0.9

=1/4+(3/40)log10-(27/40)log(9/10)≈0.603bit

H(XY)=H(X)+H(Y/X)=9/4+(3/4)log10-(21/10)log3=1.414bit

P(X=0,Y=0,Z=0)= P(Z=0 / X=0, Y=0)* P( X=0, Y=0)=(1-0.4)*(0.75-0.075)=0.405 P(X=0,Y=0,Z=1)= P(Z=1 / X=0, Y=0)* P( X=0, Y=0)=0.4*0.675=0.27

P(X=1,Y=0,Z=1)= P(Z=1/ X=1,Y=0)* P(X=1,Y=0)=0.4*(0.25-0.125)=0.05 P(X=1,Y=0,Z=0)= P(Z=0/ X=1,Y=0)* P(X=1,Y=0)=0.6*0.125=0.075 P(X=1,Y=1,Z=1)=P(X=1,Z=1)- P(X=1,Y=0,Z=1)=0.175-0.05=0.125 P(X=1,Y=1,Z=0)=0 P(X=0,Y=1,Z=0)=0

P(X=0,Y=1,Z=1)= P(X=0,Z=1)- P(X=0,Y=0,Z=1)= 0.345-0.27=0.075

H(XYZ)=-0.405*log0.405-0.27*log0.27-0.05*log0.05-0.075*log0.075-0.125*log0.125-0.075*log 0.075=(113/100)+(31/20)log10-(129/50)log3 =0.528+0.51+0.216+0.28+0.375+0.28=2.189 bit

H(Z/XY)=H(XYZ)-H(XY)= -28/25+(4/5)log10-12/25log3 =0.775bit

2.9 解:

A ,

B ,

C 分别表示三个筛子掷的点数。 X=A, Y=A+B, Z=A+B+C

由于P(A+B+C/ A+B)=P(C/A+B)=P(C)

所以H(Z/Y)=H(A+B+C/ A+B)=H (C )=log6 =2.58bit

一共36种情况,每种情况的概率为1/36,即P(A=a,Y=y)=1/36

H(X/Y)=H(A/Y)=(1/36)[(-1*log1-2*log(1/2)-3*log(1/3)-4*log(1/4)-5*log(1/5) )*2-6*log(1/6)]=1 .89bit

由于P(A+B+C/ A+B,A)=P(C/A+B,A)=P(C)

H(Z/XY)=H(C) =log6 =2.58bit

由于P(A=x,A+B+C=z/A+B=y)=P(A=x,C=z-y/ A+B=y)=P(A=x/A+B=y)P(C=z-y/A+B=y)=

P(A= x / A+B=y)P(C=z-y)=P(A/Y)P(C)

一共216种情况,每种情况的概率为1/216,即P(XYZ)=1/216

H(XZ/Y)=

(1/216)[(-6*log(1/6)-12*log(1/12)-18*log(1/18)-24*log(1/24)-30*log(1/30))*2-36*log(1/36)]= (1/36)*[(log6+2log12+3log18+4log24+5log30)*2+6log36]=4.48 bit

由于P(Z/X)=P(B+C/A)=P(B+C)

(/)()log (/)

()(/)log (/)

()()log ()()

xyz

abc

a

bc

H Z X p xz p z x p a p a b c a p a b c a p a p b c p b c H B C =-=-++++=-++=+∑∑∑∑

= (1/36)*{[log36+2log(36/2)+ 3log(36/3)+ 4log(36/4)+ 5log(36/5)]*2+6log(36/6)}bit

2.11解:P(0/0)=P(1/1)=1- p , P(1/0)=P(0/1)= p (a) P (u l)=1/8

P (u l ,0)=P (u l)×P (0/u l)=(1/8)×(1-p ) 接收的第一个数字为0的概率:

P (0)=P (u l)×P (0/u l)+ P (u 2)×P (0/u 2)+……. P (u 8)×P (0/u 8)

=4×(1/8)×(1-p )+ 4×(1/8)×p =1/2

I(u l; 0)=log[ P (u l ,0)/P(0)P(u l)]=1+log(1-p ) (b) P (u l ,00)=P (u l)×P (00/u l)=(1/8)×(1-p )2

P (00)=P (u l)×P (00/u l)+ P (u 2)×P (00/u 2)+……. P (u 8)×P (00/u 8) =2×(1/8)×(1-p )2 +4×(1/8)×p (1-p )+ 2×(1/8)×p 2 =1/4

I(u l; 00)=log[ P (u l ,00)/P(00)P(u l)]= 2+2log(1-p ) (c) P (u l ,000)=P (u l)×P (000/u l)=(1/8)×(1-p )3

P (000)=P (u l)×P (000/u l)+ P (u 2)×P (000/u 2)+……. P (u 8)×P (000/u 8) = (1/8)×(1-p )3 +3×(1/8)×p (1-p ) 2+3×(1/8)×p 2 (1-p ) +(1/8)×p 3 =1/8

I(u l; 000)=log[ P (u l ,000)/P(000)P(u l)]= 3+3log(1-p ) (d) P (u l ,0000)=P (u l)×P (0000/u l)=(1/8)×(1-p )4

P (0000)=P (u l)×P (0000/u l)+ P (u 2)×P (0000/u 2)+……. P (u 8)×P (0000/u 8) = (1/8)×(1-p )4 +6×(1/8)×p 2 (1-p ) 2+ (1/8)×p 4

I(u l; 0000)=log[ P (u l ,0000)/P(0000)P(u l)]=

4224

(1)

3log{22}log{

}(1)6(1)p p p p p p

-=-+-+-+

2.12解:

I(X;Z)= H(Z)-H(Z/X) I(XY ;Z)=H(Z)-H(Z/XY)

I(Y;Z/X)=I(XY;Z)-I(X;Z)

I(X;Z/Y)= I(XZ;Y)-I(Y;Z)= H(XZ)-H(XZ/Y) -I(Y;Z)=H(X)+H(Z/X) -H(XZ/Y) -I(Y;Z)

以上可以根据2.9的结果求出

2.27解:考虑到约束条件

()1,

()q x xq x m ∞

==⎰

采用拉格朗日乘子法

1212

120

12120

0(())()log ()[()][()1]

()()log ()log ()[1]()()c x x H q x q x q x dx xq x dx m q x dx e a m q x dx m e q x dx

q x q x λλλλλλλλλλ∞

----∞

∞=-----=++≤++⋅-⎰⎰⎰⎰

⎰ 当且仅当12

()x q x a λλ--=时,等式成立。

将12

()x q x a

λλ--=带入

()1,

()q x dx xq x dx m ∞

==⎰

: 211

,ln a m m a

λλ-=

= 实现最大微分熵的分布ln ()ln ln 111()x x x

a m a m a

m q x a

e e m m m

---===,相应的熵值log (me )

2.29证明: (a)

1

2

()()(1)()(1)1Q x Q x Q x λλλλ=+-=+-=∑∑

所以Q(x)为概率分布。 (b) 即证明熵的凸性。

1112121212121212()(1)()()111

()log (1)()log (()(1)())log ()()()()()

()log

(1)()log ()()

()()

log ()[

1]log (1)()[1]0()()

H U H U H U Q x Q x Q x Q x Q x Q x Q x Q x Q x Q x Q x Q x Q x Q x Q x e Q x e Q x Q x Q x λλλλλλλλλλ+--=+--+-=+-≤⋅-+⋅--=∑∑∑∑∑∑∑

信息论与编码理论习题答案

信息论与编码理论习题 答案 LG GROUP system office room 【LGA16H-LGYY-LGUA8Q8-LGA162】

第二章 信息量和熵 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速 率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少信息 量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log = bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log = bit 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log = bit (b) ? ??????花色任选种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C = bit 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和, Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、 )|,(Y Z X H 、)|(X Z H 。

信息论与编码习题与答案第二章

36 第一章 信息、消息、信号的定义?三者的关系? 通信系统的模型?各个主要功能模块及作用? 第二章 信源的分类? 自信息量、条件自信息量、平均自信息量、信源熵、不确定度、条件熵、疑义度、 噪声熵、联合熵、互信息量、条件互信息量、平均互信息量以及相对熵的概念? 计算方法? 冗余度? 具有概率为p (x )的符号x 自信息量:I (X )- -iogp (x ) 条件自信息量:|(X i = —log p (X i y i ) 平均自信息量、平均不确定度、信源熵: H (X )二-為p (x )log p (x ) i H (XY )=送 p (X i ,y j )|(X i y j ) 一瓦 ij ij 联合熵: H (XY )=:Z p (X i ,y j )I(X i ,y j ^Z p (X i ,y j )log p (X i ,y j ) ij ij 互信息: 弋 pyx)亍 pyx) l(X;Y)=W p(X i , y .)log =S p(X i )p(y . X i )log j 入儿 p(y j ) j 入儿入 p(y j ) 熵的基本性质:非负性、对称性、确定性 2.3同时掷出两个正常的骰子,也就是各面呈现的概率都为 1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, , , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。 解: (1) I (xj =-log p(xj 工「log 丄 4.170 bit 18 1 l(xj - - log p(xj - - log 5.170 bit 条件熵: p (X i ,y j )lo gp (X i y j ) p(X i ) 1111 6 6 6 6 1 18 1 p(x "6 1 36

信息论与编码理论第二章习题答案(王育民)

部分答案,仅供参考。 2.1信息速率是指平均每秒传输的信息量 点和划出现的信息量分别为3log ,2 3log , 一秒钟点和划出现的次数平均为 4 15314.0322.01= ⨯+⨯ 一秒钟点和划分别出现的次数平均为4 5.410 那么根据两者出现的次数,可以计算一秒钟其信息量平均为2 53log 4 153log 4 52 3log 4 10-=+ 2.3 解: (a)骰子A 和B ,掷出7点有以下6种可能: A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量 -log(1/6)=1+log3≈2.58 bit (b) 骰子A 和B ,掷出12点只有1种可能: A=6,B=6 概率为1/36,所以信息量 -log(1/36)=2+log9≈5.17 bit 2.5解: 出现各点数的概率和信息量: 1点:1/21,log21≈4.39 bit ; 2点:2/21,log21-1≈3.39 bit ; 3点:1/7,log7≈2.81bit ; 4点:4/21,log21-2≈2.39bit ; 5点:5/21,log (21/5)≈2.07bit ; 6点:2/7,log(7/2)≈1.81bit 平均信息量: (1/21)×4.39+(2/21)×3.39+(1/7)×2.81+(4/21)×2.39+(5/21)×2.07+(2/7)×1.81≈2.4bit 2.7解: X=1:考生被录取; X=0:考生未被录取; Y=1:考生来自本市;Y=0:考生来自外地; Z=1: 考生学过英语;Z=0:考生未学过英语 P(X=1)=1/4, P(X=0)=3/4; P(Y=1/ X=1)=1/2; P(Y=1/ X=0)=1/10; P(Z=1/ Y=1)=1, P(Z=1 / X=0, Y=0)=0.4, P(Z=1/ X=1, Y=0)=0.4, P(Z=1/Y=0)=0.4 (a) P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=0.075, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)=0.125 P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)=0.2 P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=0.375, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=0.625 I (X ;Y=1)=∑∑=====x x ) P() 1Y /(P log )1Y /(P )1Y (I )1Y /(P x x x x;x =1) P(X ) 1Y /1X (P log )1Y /1X (P 0)P(X )1Y /0X (P log )1Y /0X (P =====+=====

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 1.1同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(361 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: (3)信源空间: bit x H 32.436log 36 62log 3615)(=??+?? =∴ (4)信源空间: bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.11136 log log )(3611333==-=∴==

1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量?平均每个回答中各含有多少信息量?如果你问一位女士,则她的答案中含有多少平均信息量? 解: bit w P w P w P w P m m P m I w P w I bit m P m P m P m P m bit m P m I bit m P m I n n y y n n y y n n y y n n y y 0454.0log99.5%99.5%-log0.5%-0.5% )(log )()(log )()(H % 5.99log )(log )(%5.0log )(log )(36 6.0log93%93%-log7%-7% )(log )()(log )()(H 105.0%93log )(log )(84.3%7log )(log )(: =??=?-?-=-=-=-=-==??=?-?-==-=-==-=-=平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于女: 平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于男士

信息论与编码第二章答案

第二章 信息的度量 2.1 信源在何种分布时,熵值最大?又在何种分布时,熵值最小? 答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。 2.2 平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系? 答: 若信道给定,I(X;Y)是q(x)的上凸形函数; 若信源给定,I(X;Y)是q(y|x)的下凸形函数。 2.3 熵是对信源什么物理量的度量? 答:平均信息量 2.4 设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少? 答:k k k xi q xi q X H i log 1log 1)(log )() (=- =-=∑ 2.5 根据平均互信息量的链规则,写出I(X;YZ)的表达式。 答:)|;();();(Y Z X I Y X I YZ X I += 2.6 互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗? 答:互信息量) ()|(log ) ;(xi q yj xi Q y x I =,若互信息量取负值,即Q(xi|yj)

答: 由图示可知:4 3)|(4 1)|(32)|(31)|(41)|(43)|(222111110201= = == == s x p s x p s x p s x p s x p s x p 即: 4 3)|(0)|(4 1)|(31)|(32)|(0)|(0 )|(4 1)|(4 3)|(222120121110020100= == = ==== = s s p s s p s s p s s p s s p s s p s s p s s p s s p 可得: 1 )()()() (43)(31)()(31)(41)()(41)(43)(210212101200=+++ = +=+=s p s p s p s p s p s p s p s p s p s p s p s p

信息论与编码第2章习题解答

2.1设有12枚同值硬币,其中一枚为假币。只知道假币的重量与真币的重量不同,但不知究竟是重还是轻。现用比较天平 左右两边轻重的方法来测量(因无砝码)。为了在天平上称出哪一枚是假币,试问至少必须称多少次? 解:分三组,每组4个,任意取两组称。会有两种情况,平衡,或不平衡。 (1) 平衡: 明确假币在其余的4个里面。从这4个里面任意取3个,并从其余8个好的里面也取3个称。又有 两种情况:平 衡或不平衡。 a )平衡:称一下那个剩下的就行了。 b )不平衡:我们至少知道那组假币是轻还是重。 从这三个有假币的组里任意选两个称一下,又有两种情况:平衡与不平衡,不过我们已经知道假币的轻重情况了,自然的,不平衡直接就知道谁是假币;平衡的话,剩下的呢个自然是假币,并且我们也知道他是轻还是重。 (2) 不平衡: 假定已经确定该组里有假币时候: 推论1:在知道该组是轻还是重的时候,只称一次,能找出假币的话,那么这组的个数不超过3。 我们知道,只要我们知道了该组(3个)有假币,并且知道轻重,只要称一次就可以找出来假币了。 从不平衡的两组中,比如轻的一组里分为3和1表示为“轻(3)”和“轻(1)”,同样重的一组也是分成3和1标示 为“重(3)”和“重(1)”。在从另外4个剩下的,也就是好的一组里取3个表示为“准(3)”。交叉组合为: 轻(3) + 重(1) ?=======? 轻(1) + 准(3) 来称一下。又会有3种情况: (1)左面轻:这说明假币一定在第一次称的时候的轻的一组,因为“重(1)”也出现在现在轻的一边,我们已经知道,假 币是轻的。那么假币在轻(3)里面,根据推论1,再称一次就可以了。 (2)右面轻:这里有两种可能: “重(1)”是假币,它是重的,或者“轻(1)”是假币,它是轻的。这两种情况,任意 取这两个中的一个和一个真币称一下即可。 (3)平衡:假币在“重(3)”里面,而且是重的。根据推论也只要称一次即可。 2.2 同时扔一对骰子,当得知“两骰子面朝上点数之和为2”或“面朝上点数之和为8”或“骰子面朝上之和是3和4”时, 试问这三种情况分别获得多少信息量? 解:设“两骰子面朝上点数之和为2”为事件A ,则在可能出现的36种可能中,只能个骰子都为1,这一种结果。即: P (A )=1/36,I (A )= 2log P (A )=2log 36≈5.17 比特 设“面朝上点数之和为8”为事件B ,则有五种可能:2、6;6、2;4、4;3、5;5、3;即: P (B )= 5/36,I (B )= 2log P (B )= 2log 36/5≈2.85 比特 设“骰子面朝上之和是3和4”为事件C ,则有两种可能:3、4;4、3;即: P (C )= 2/36,I (C )= 2log P (C )= 2log 36/2≈4.17 比特 2.3 如果你在不知道今天是星期几的情况下问你的朋友“明天是星期几?”则答案中含有多少信息量?如果你在已知今天是 星期四的情况下提出同样的问题,则答案中你能获得多少信息量(假设已知星期一至星期日的排序) 解:(1)P =1/7 I =-Log 2P =-Log 27 (2)已知今天星期四,问明天是星期几? 即:明天是星期五是必然事件,不存在不确定性,I =0。 2.4地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占半数一半。假 如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A 为女大学生,B 为1.6米以上的女孩 则依题意有:1()4P A = , 1()2P B =, 3(|)4 P B A = 133()()(|)4416 P AB P A P B A ==?=

信息论与编码课后习题答案

信息论与编码课后习题答案 第二章 2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。 解: (1) bit x p x I x p i i i 170.418 1 log )(log )(18 1 61616161)(=-=-== ?+?= (2) bit x p x I x p i i i 170.536 1 log )(log )(36 1 6161)(=-=-== ?= (3) 两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66 共有21种组合: 其中11,22,33,44,55,66的概率是36 16161=? 其他15个组合的概率是18 1 61612=? ? symbol bit x p x p X H i i i / 337.4181log 18115361log 3616)(log )()(=??? ?? ?+?-=-=∑

参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下: symbol bit x p x p X H X P X i i i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 36 12 ) (log )()(36112181111211091936586173656915121418133612)(=? ?? ?? +?+?+?+?+?-=-=??????????=? ?????∑(5) bit x p x I x p i i i 710.136 11 log )(log )(3611116161)(=-=-== ??= 2.4 2.12 两个实验X 和Y ,X={x 1 x 2 x 3},Y={y 1 y 2 y 3},l 联合概率(),i j ij r x y r =为 1112132122233132 337/241/2401/241/41/2401/247/24r r r r r r r r r ???? ? ?= ? ? ? ????? (1) 如果有人告诉你X 和Y 的实验结果,你得到的平均信息量是多少? (2) 如果有人告诉你Y 的实验结果,你得到的平均信息量是多少? (3) 在已知Y 实验结果的情况下,告诉你X 的实验结果,你得到的平均信息量是多少?

信息论与编码理论课后答案

信息论与编码理论课后答案 【篇一:《信息论与编码》课后习题答案】 式、含义和效用三个方面的因素。 2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长 篇论文,从而创立了信息论。 3、按照信息的性质,可以把信息分成语法信息、语义信息和语用 信息。 4、按照信息的地位,可以把信息分成客观信息和主观信息。 5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用 各种各样的信息。 6、信息的是建立信息论的基础。 7、 8、是香农信息论最基本最重要的概念。 9、事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般 用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量, 定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是。 14、不可能事件的自信息量是 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的 熵的。 limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。 20、一维连续随即变量x在[a,b] 。 1log22?ep 21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。

22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p 25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。 27 28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?1 1?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学 2期望,则x的信源熵c。 30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信 2源熵为。 31信道。 32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 33、具有一一对应关系的无噪信道的信道容量。 34、强对称信道的信道容量。 35、对称信道的信道容量。 36、对于离散无记忆信道和信源的n次扩展,其信道容量cn= 。xh(x)?logmelog52 37、对于n个对立并联信道,其信道容量 cn = 。 38、多用户信道的信道容量用多维空间的一个区域的界限来表示。 39、多用户信道可以分成几种最基本的类型:多址接入信道、广播信道和相关信源信道。 40、广播信道是只有一个输入端和多个输出端的信道。 41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道。 ?ck?1nk p1log2(1?x)2pn。 42、高斯加性信道的信道容量c= 43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是信息率小于信道容量。 ?1/21/20??0?01??代表的信道的信道容量。 44、信道矩阵 ?10??10????01??代表的信道的信道容量。 45、信道矩阵?

信息论与编码第2章答案

《信息论与编码》-雪虹-课后习题答案 第二章 2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =, ()21|1/2p u u =,()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =, ()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ?? ?= ? ??? 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =??++=?得1231132231231 112331223231W W W W W W W W W W W W ?++=???+=???=???++=? 计算可得1231025925625W W W ?=??? =?? ?=?? 2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2, (1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。画出状态图,并计算各状态的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

信息论与编码答案傅祖芸

信息论与编码答案傅祖芸 【篇一:信息论与编码课程设计报告】 t>设计题目:统计信源熵与香农编码 专业班级学号学生姓名指导教师教师评分 2014年3月24日 目录 一、设计任务与要求................................................. 2 二、设计思路....................................................... 2 三、设计流程图..................................................... 3 四、程序运行及结果................................................. 5 五、心得体会....................................................... 6 参考文 献 .......................................................... 6 附录:源程序.. (7) 一、设计任务与要求 1、统计信源熵 要求:统计任意文本文件中各字符(不区分大小写)数量,计算字 符概率,并计算信源熵。 2、香农编码 要求:任意输入消息概率,利用香农编码方法进行编码,并计算信 源熵和编码效率。 二、设计思路 1、统计信源熵: 统计信源熵就是对一篇英文文章(英文字母数为n),通过对其中 的a,b,c,d/a,b,c,d.....(不区分大小写)统计每个字母的个数n,有这个 公式p=n/n可得每个字母的概率,最后又信源熵计算公式h(x)=??p(xi)logp(xi) i?1n , 可计算出信源熵h,所以整体步骤就是先统计出英文段落的总字符数,在统计每个字符的个数,即每遇到同一个字符就++1,直到算出每个 字符的个数,进而算出每个字符的概率,再由信源熵计算公式计算 出信源熵。 2、香农编码: 香农编码主要通过一系列步骤支出平均码长与信源之间的关系,同 时使平均码长达到极限值,即选择的每个码字的长度ki满足下式: i(xi)?ki?i(xi)?1,?i

信息论与编码第二章课后答案

信息论与编码第二章课后答案在信息科学领域中,信息论和编码是两个息息相关的概念。信息论主要研究信息的传输和处理,包括信息的压缩、传输的准确性以及信息的安全性等方面。而编码则是将信息进行转换和压缩的过程,常用的编码方式包括霍夫曼编码、香农-费诺编码等。 在《信息论与编码》这本书的第二章中,涉及了信息的熵、条件熵、熵的连锁法则等概念。这些概念对于信息理解和编码实现有着重要的意义。 首先是信息的熵。熵可以简单理解为信息的不确定性。当信息的发生概率越大,它的熵就越小。比如说,一枚硬币的正反面各有50%的概率,那么它的熵就是1bit。而如果硬币只有正面,那么它的熵就是0bit,因为我们已经知道了结果,不再有任何不确定性。 其次是条件熵。条件熵是在已知某些信息(即条件)的前提下,对信息的不确定性进行量化。它的定义为已知条件下,信息的熵的期望值。比如说,在猜词游戏中,我们手中已经有一些字母的信息,那么此时猜测单词的不确定性就会下降,条件熵也就会减少。

除了熵和条件熵之外,连锁法则也是信息理解和编码实现中的 重要概念。连锁法则指的是一个信息在不同时刻被传输的情况下,熵的变化情况。在信息传输的过程中,信息的熵可能会发生改变。这是因为在传输过程中,可能会发生噪声或者数据重复等情况。 而连锁法则就是用来描述这种情况下信息熵的变化情况的。 最后,霍夫曼编码和香农-费诺编码是两种比较常用的编码方式。霍夫曼编码是一种无损压缩编码方式,它可以将出现频率高的字 符用较短的二进制编码表示,出现频率较低的字符用较长的二进 制编码表示。香农-费诺编码则是一种用于无失真信源编码的方法,可以把每个符号用尽可能短的二进制串来表示,使得平均码长最 小化。 总的来说,信息论和编码是信息科学中非常重要的两个概念。 通过对信息熵、条件熵、连锁法则等的探讨和了解,可以更好地 理解信息及其传输过程中的不确定性和数据处理的方法。而霍夫 曼编码和香农-费诺编码则是实现数据压缩和传输的常用编码方式。

信息论与编码试卷及答案2

篇一:信息论与编码期末题(全套) 〔一〕 7、某二元信源 一、判断题共 10 小题,总分值 20 分. 1. 当随机变量X和Y相互独立时,条件熵H(X|Y)等于信源熵H(X). 〔〕 2. 由于构成同一空间的基底不是唯一的,所以不同的基 1X0 P(X)1/21/2,其失真矩阵 0a ,那么该信源的Dmax= Da0 三、此题共 4 小题,总分值 50 分. 1、某信源发送端有2种符号xi(i1,2),p(x1)a;接收端 底或生成矩阵有可能生成同一码集.符号 y( j 1 ,2) ,转移概率矩阵为有3 种,3〔〕 3.一般情况下,用变长编码得到的平均码长比定长编码大得多. 〔〕 4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通 信 〔〕 5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. 〔〕 6. 连续信源和离散信源的熵都具有非负性. 〔〕 7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小. 8. 汉明码是一种线性分组码. 〔〕 9. 率失真函数的最小值是0 . 〔〕 10.必然事件和不可能事件的自信息量都是0. 〔〕 二、填空题共 6 小题,总分值 20 分. 1 、 码

的 检 、 纠 错 能 力 取 决 于 . 2、信源编码的目的是的目的是 . 3、把信息组原封不动地搬到码字前k位的(n,k)码就叫做 . 4、香农信息论中的三大极限定理 是、、. 5、设信道的输入与输出随机序列分别为X和Y,那么 I(XN,YN)NI(X,Y)成立的 条件 6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 . iP1/21/20 1/21/41/4. 〔1〕计算接收端的平均不确 定度H(Y);〔2〕计算由于噪声产生的不 确定度H(Y|X);〔3〕计算信道容量以及最正确入口分布. 2、一阶马尔可夫信源的状态转移 图2-13 图如右图所示,信源X的符号集为{0,1,2}. 〔1〕求信源平稳后的概率分布; 〔2〕求此信源的熵; 〔 3 〕近似地认为此信源为无记忆时,符号的概率分布为平 X )

信息论与编码试卷及答案2

信息论与编码试卷及答案2 篇一:信息论与编码试卷及答案 一、概念简答题(每题5分,共40分) 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。 6.解释无失真变长信源编码定理。 7.解释有噪信道编码定理。 8.什么是保真度准则?对二元信源 时率失真函数的和?,其失真矩阵,求a>0二、综合题(每题10分,共60分) 1.黑白气象传真图的消息只有黑色和白色两种,求: 1)黑色出现的概率为,白色出现的概率为。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,

求熵; 2)假设黑白消息出现前后有关联,其依赖关系为:, ,求其熵;, , 2.二元对称信道如图。 ; 1)若,,求和; 2)求该信道的信道容量和最佳输入分布。 3.信源空间为 曼码,计算其平均码长和编码效率。 ,试分别构造二元和三元霍夫 4.设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。 5.已知一(8,5)线性分组码的生成矩阵为。 求:1)输入为全00011和10100时该码的码字;2)最小码距。 6.设某一信号的信息传输率为/s,在带宽为4kHz的高斯信道中传输,噪声功率谱NO=5×10-6mw/Hz。试求: (1)无差错传输需要的最小输入功率是多少? (2)此时输入信号的最大连续熵是多少?写出对应的输入概率密度函数的形式。 一、概念简答题(每题5分,共40分)

信息论与编码理论王育民答案

信息论与编码理论王育民答案 【篇一:信息论与编码课程改革探索与研究】 学改革的论述。教学改革优化了教学内容,提高了教学效率;让学 生参与到教学过程中,实现师生的良性互动;精心引入前沿科研问题,开拓学生眼界;合理布置作业,及时巩固所学知识;加强了实 验教学,培养学生的应用能力;完善课程考核方法,真实反映学生 学习情况。 关键词:信息论与编码;教学改革;教学方法 中图分类号:g424 文献标志码:a 文章编号:1674-9324(2016)19-0085-02 一、引言 信息论与编码是南通大学电子信息类本科三年级的一门专业必修课,主要是研究信息传输的有效性和可靠性的一门学科[1,2]。该课程是 通信技术与概率论、随机过程、数理统计等学科相互融合而发展起 来的一门交叉学科[3]。该课程要求学生掌握线性代数、微积分等基 本的数学工具,还需要学生对通信原理等课程有较深刻的认识。个 人计算机的普及和通信专业软件的日益成熟,使得该课程的实验教 学成为可能。可见,该课程理论性强、内容多,与先修课程有密切 的关系。针对该课程的变化与最新发展,为了提高教学效果,笔者 在理论教学、实验教学、科研联系教学、考核方式等多个方面进行 了改革。 二、教材选择 根据学校的层次、专业特点和教学对象选择一本合适的教材是教学 改革的一个基本方面。目前,有关信息论与编码这一课程的教材非 常多。如王育民编著的《信息论与编码理论》以及cover著写的 《信息论基础》的中译本和英文影印本。随着网络技术的迅猛发展,最近出现了一些新教材,如仇佩亮编著的《多用户信息论》、yeung 编写的《信息论基础》和gamal编著的《网络信息论》。这些教材 的知识体系结构和侧重点各有不同,而且差别很大。根据信息论与 编码专业必修课的性质,按照强调基础理论学习,突出对所学理论 知识灵活应用的原则,我校选用了曹雪虹主编的《信息论与编码》 作为教材。该教材吸收了国内外众多现有教材的精华,注重基本概念,突出基础理论,强调应用。而且,该教材难度适中,文字通俗

计算机科学技术:信息论与编码考试题库二

计算机科学技术:信息论与编码考试题库二 1、问答题(江南博哥)请给出平均码长界定定理及其物理意义。 答案: 2、填空题多用户信道的信道容量用()来表示。 答案:多维空间的一个区域的界限 3、判断题狭义的信道编码既是指:信道的检、纠错编码。 答案:对 4、判断题互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。 答案:对 5、判断题对于具有归并性能的无燥信道,当信源等概率分布时(p(xi)=1/n),达到信道容量。 答案:错 6、问答?有两个二元随机变量X和Y,它们的联合概率为P[X=0,Y=0]=1/8,P[X=0,Y=1]=3/8,P[X=1,Y=1]=1/8,P[X=1,Y=0]=3/8。定义另一随机变量Z=XY,试计算: (1)H(X),H(Y),H(Z),H(XZ),H(YZ),H(XYZ); (2)H(X/Y),H(Y/X),H(X/Z),H(Z/X),H(Y/Z),H(Z/Y),H (X/YZ),H(Y/XZ),H(Z/XY); (3)I(X;Y),I(X;Z),I(Y;Z),I(X;Y/Z),I(Y;Z/X),I(X;Z/Y)。 答案: 7、填空题平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。 答案:(X;Y)=H(X)-H(X/Y) 8、填空题根据输入输出信号的特点,可将信道分成离散信道、连续信道、()信道。 答案:半离散或半连续 9、填空题单符号离散信源一般用随机变量描述,而多符号离散信源一般用()描述。 答案:随机矢量 10、填空题信源编码的目的是提高通信的(),信道编码的目的是提高通信的(),加密编码的目的是保证通信的()。 答案:有效性;可靠性;安全性 11、填空题某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。 答案:等概;log(n) 12、名词解释前向纠错(FEC) 答案:是指差错控制过程中是单向的,无须差错信息的反馈。

信息论与编码第二章答案

2-1、一阶马尔可夫链信源有3个符号(f úh ào),转移(zhu ǎny í)概率 为: , , , ,, , , , 。 画出状态图并求出各符号(f úh ào)稳态概率。 解:由题可得状态概率(g àil ǜ)矩阵为: 状态(zhu àngt ài)转换图为: 令各状态的稳态分布概率为,,,则: 1W = 1W + 2W +133W , 2W =1 21W + 3W , 3W = 2 3 2W 且:1W +2W +3W =1 稳态分布概率为: 1W =,2W = ,3W = 2-2.由符号集{0,1}组成的二阶马尔可夫链,其转移概率为: P(0|00)=0.8,P(0|11)=0.2,P(1|00)=0.2,P(1|11)=0.8,P(0|01)=0.5,p(0|10)=0.5,p(1|01)=0.5,p(1|10)=0.5画出状态图,并计算各符号稳态概率。 解:状态转移概率矩阵为: 令各状态的稳态分布概率为 、 、 、 ,利用(2-1-17)可得方程组。

且; 解方程组得:即: 2-3、同时掷两个正常(zhèngcháng)的骰子,也就是各面呈现的概率都是,求: (1)、“3和5同时(tóngshí)出现”事件(shìjiàn)的自信息量; (2)、“两个1同时(tóngshí)出现”事件(shìjiàn)的自信息量; (3)、两个点数的各种组合的熵或平均信息量; (4)、两个点数之和的熵; (5)、两个点数中至少有一个是1的自信息量。 解:(1)3和5同时出现的概率为: (2)两个1同时出现的概率为: (3)两个点数的各种组合(无序对)为: (1,1),(1,2),(1,3),(1,4),(1,5),(1,6) (2,2),(2,3),(2,4),(2,5),(2,6) (3,3), (3,4),(3,5),(3,6) (4,4),(4,5),(4,6) (5,5),(5,6) (6,6)

信息论编码与基础课后题

信息论编 码与基础课后题(第二章)

作者: 日期:

第二章习题解答 2-1、试问四进制「八进制脉冲所含信息疑是二进制脉冲的多少倍? 解:四进制脉冲可以表示4 个不同的消息,例如:{0 1,2,3} 八进制脉冲可以表示8个不同的消息,例如:{0, 1,2, 3,4, 5.6.7) 二进制脉冲可以表示2个不同的消息,例如:{0.1} 假设每个消息的发出都是等概率的,贝q:四进制脉冲的平均信息量H(XJ = log n = log4 = 2 bi"symbol 八进制脉冲的平均信息量H(X2) = log H = log8 = 3 bit/symbol 二进制脉冲的平均信息量H(Xo)= log n = log 2 = 1 bi" symbol 所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。 2、设某班学生在一次考试中获优(A)、良(B)、中(C).及格(D)和不及格(E)的人数相等。当教师通知 某甲:“你没有不及格”,甲获得了多少比特信息?为确左自己的成绩,甲还需要多少信息? 解:根据题意「没有不及格”或“pass''的概率为 因此当教师通知某甲“没有不及格”后,甲获得信息 'pass =-叱^ass 在已知Sass"后,成绩为“优"(A),"良“中” 4 =_log- = 0.322 bits (c)和“及格”(£>) 、的概率相同: P swrc = P(A I pass) = P(B I pass) = P(C I pass) = P{D I pass)=占 为确定自己的成绩,甲还需信息 Acow = _ log 代cow = _ log ; = 2 bits 4 3、中国国家标准局所规定的二级汉字共6763个。设每字使用的频度相等,求一个汉字所含的信息量。设每个汉字用一个16x16的二元点阵显示,试il•算显示方阵所能表示的最大信息。显示方阵的利用率是多少? 解:由于每个汉字的使用频度相同,它们有相同的出现概率,即 p=—!— 6763 因此每个汉字所含的信息量为 /字=-log P = — log( ;( = 12.7 bits 每个显示方阵能显示216X,6 = 2256种不同的状态,等概分布时信息墻最大, 所以一个显示方阵所能显示的最大信息量是

《信息论与编码理论》(王育民 李晖 梁传甲)课后习题答案 高等教育出版社

信息论与编码理论习题解 第二章-信息量和熵 2.1解: 平均每个符号长为:15 4 4.0312.03 2= ⨯+⨯秒 每个符号的熵为9183.03log 3 1 23log 32=⨯+⨯比特/符号 所以信息速率为444.34 15 9183.0=⨯比特/秒 2.2 解: 同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6 比特; 所以信息速率为600010006=⨯比特/秒 2.3 解:(a)一对骰子总点数为7的概率是 36 6 所以得到的信息量为 585.2)36 6(log 2= 比特 (b) 一对骰子总点数为12的概率是36 1 所以得到的信息量为 17.536 1 log 2= 比特 2.4 解: (a)任一特定排列的概率为 ! 521 ,所以给出的信息量为 58.225! 521 log 2 =- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 1352 13 13 521344!13C A =⨯ 所以得到的信息量为 21.134 log 1313 52 2=C 比特. 2.5 解:易证每次出现i 点的概率为 21 i ,所以

比特比特比特比特比特比特比特398.221 log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21 log )(26 12=-==============-==∑ =i i X H x I x I x I x I x I x I i i i x I i 2.6 解: 可能有的排列总数为 27720! 5!4!3! 12= 没有两棵梧桐树相邻的排列数可如下图求得, Y X Y X Y X Y X Y X Y X Y X Y 图中X 表示白杨或白桦,它有⎪⎪⎭ ⎫ ⎝⎛37种排法,Y 表示梧桐树可以栽种的位置,它有⎪⎪⎭⎫ ⎝⎛58种排法,所以共有⎪⎪⎭⎫ ⎝⎛58*⎪⎪⎭⎫ ⎝⎛37=1960种排法保证没有 两棵梧桐树相邻,因此若告诉你没有两棵梧桐树相邻时,得到关于树排列的信息为1960log 27720log 22-=3.822 比特 2.7 解: X=0表示未录取,X=1表示录取; Y=0表示本市,Y=1表示外地; Z=0表示学过英语,Z=1表示未学过英语,由此得

相关主题
相关文档
最新文档