信息论习题全版.docx

信息论习题全版.docx
信息论习题全版.docx

[例2.1.4 条件熵] 已知X ,Y }1,0{∈,XY 构成的联合概率为:p(00)=p(11)=1/8,p(01)=p(10)=3/8,计算条件熵H(X/Y)。

解: 根据条件熵公式:

∑∑==-=m

j n

i j i j i y x p y x p Y X H 112)/(log )()/(

)()

()/(j j i j i y p y x p y x p =

首先求∑==2

1

)()(i j i j y x p y p ,有

)

/(406

.0243log 8341log 8

1

)

1/1(log )11()

0/1(log )10()1/0(log )01()0/0(log )00()/(,

4

3

)1/0()0/1()

1/1(41

2/18/1)0()00()0()00()0/0()0/0(2

1

)1()1(8

1

83)10()00()0()0(22222211111212111symbol bit p p p p p p p p Y X H p p p y p y x p p p y x p p y p p c

y x p y x p y p p =???? ??--=-----==============

===+==+====从而有:

同理可求得[例2.1.5]将已知信源?

??

???=?

???

??5.05.0)(21

x x X P X

接到下图所示的

信道上,求在该信道上传输的平均互信息量I(X;Y)、疑义度H(X/Y)、噪声熵H(Y/X)和联合熵H(XY)。

1x 0.981y

0.02

0.2

2x 0.82y

解:(1)由),/()()(i j i j i x y p x p y x P =求出各联合概率:

49.098.05.0)/()()(11111=?==x y p x p y x p

01.002.05.0)/()()(12121=?==x y p x p y x p 10.020.05.0)/()()(21212=?==x y p x p y x p 40.080.05.0)/()()(22222=?==x y p x p y x p

(2)由,)()(1

∑==n

i j i j y x P y P 得到Y 集各消息概率:

=)(1y p 59.010.049.0)()()(12112

1

1=+=+=∑=y x p y x p y x P i i

41.059.01)(1)(12=-=-=y p y p

(3)由)

()()/(j j i j i y p y x p y x

p =

,得到X 的各后验概率:

831.059

.049

.0)()()/(11111===y p y x p y x p

169.0)/(1)/(1112=-=y x p y x p

同样可推出976.0)/(,024.0)/(2221==y x p y x p

(4))/(1}5.0log 5.05.0log 5.0{)(log )()(222

1

2符号比特=+-=-=∑=i i i x p x p X H

}41.0log 41.059.0log 59.0{)(log )()(222

1

2+-=-=∑=i i i y p y p Y H

=0.98(比特/符号)

)(log )()(211j i n

i m

j j i y x p y x p XY H ∑∑==-=

}

40.0log 40.010.0log 10.001.0log 01.049.0log 49.0{2222+++-=

=1.43(比特/符号)

(5)平均互信息

符号)

比特/(55.043.198.01)()()();(=-+=-+=XY H Y H X H Y X I

(6)疑义度

∑∑==-=2

12

12)/(log )(/i j j i j i y x p y x p Y X H )(

}

976.0log 40.0169.0log 10.0024.0log 01.0831.0log 49.0{2222+++-=

符号)比特/(45.0=

(7)噪声熵

∑∑==-=2

12

12)/(log )(/i j i j j i x y p y x p X Y H )(

}

80.0log 40.020.0log 10.002.0log 01.098.0log 49.0{2222+++-=

符号)比特/(43.0=

[例2.2.1]有一离散平稳无记忆信源

∑==?

?

????????=??????3

1

3211)(41,41,21,,)(i i

x p x x x X P X ,求此信源的二次扩展

信源的熵。

先求出此离散平稳无记忆信源的二次扩展信源。扩展信源的每个元素是信源X 的输出长度为2的消息序列。由于扩展信源是无记忆的,故

)9,,2,1;3,2,1,()

()()(2121 ===i i i x p x p a p i i i

根据熵的定义,二次扩展信源的熵为

)(2)/(3)(X H X H N ==符号比特

结论:计算扩展信源的熵时,不必构造新的信源,可直接从原信源X 的熵导出。即离散平稳无记忆信源X 的N 次扩展信源的熵为离散信源X 的熵的N 倍。

[例2.2.2]设某二维离散信源X=21X X 的原始信源X 的

信源模型为??

?

???

????=?

?????36119

44

1)(321

x x x

X P X ,X=21X X 中前后两个符号的条件概率为

原始信源的熵为:

)/(542.1)(log )()(23

1

symbol bit x p x p X H i i i =-=∑=

由条件概率确定的条件熵为:

)

/(870.0)/(log )/()()/(1

2

1

2

121

2313

1

12symbol bit x x p x x p x p X X H i i i i i i i =-=∑∑==条件熵比信源熵(无条件熵)减少了0.672bit/symbol,正是由于符号之间的依赖性所造成的。信源X=21X X 平均每发一个消息所能提供的信息量,即联合熵

)

/(412.2)/()()(12121symbol bit X X H X H X X H =+=则每一个信源符号所提供的平均信息量

)/(206.1)(2

1

)(21)(212symbol bit X X H X H X H ===

小于信源X 所提供的平均信息量H(X),这同样是由于符号之间的统计相关性所引起的。

[例2.2.3]设信源符号},,{321x x x X ∈,信源所处的状态

},,,,{54321e e e e e S ∈。各状态之间的转移情况由下图给出。

2

13=

x 2

13=

x 4

1=

4

11=

12=

x

将图中信源在i e 状态下发符号k x 的条件概率

)/(i k e x p 用矩阵表示为

3

2

1

x x x

??????????

????????????21414

10014143021210414121

由矩阵可明显看出,∑===3

1

5,4,3,2,1,1)/(k i k i e x p 。另从图

中还可得

????

?

????================----

0),/(1),/(1),/(0),/(1121112211111112e S x X e S

P e S x X e S P e S x X e S

P e S x X e S P l l l

l l l l l l l l l

所以信源满足式(4)

由图还可得状态的进一步转移概率

5

4

3

2

1

e e e e e

??????????

???????????

?414

30

0000000041430002121004104121

该信源满足式(2)-(4),所以是马尔可夫信源,并且是时齐的马尔可夫信源。

[例2.2.4]某二元2阶马尔可夫信源,原始信源X 的符号集为{}1,021

==X X

,其状态空间共有422==m n 个不同的

状态4321,,,e e e e ,即,其状态转移概率图如下,

0.8

由上图可知,当信源处于状态100e =时,其后发生符号0的概率是0.8,即8.0)|()00|0(11==e x p p , 状态仍停留在1e ,即

8.0)|()|(1111==e x p e e p 。当信源仍处于状态1e ,而发出的符

号为1时,状态转移至201e =,故一步转移概率

2.0)|()|()00|1(1212===e e p e x p p 。当信源处于状态012=e 时,其

一步转移概率为5.0)|()|()01|0(2321===e e p e x p p ,

}11,10,01,00{:4321====e e e e E

5.0)|()|()01|1(2422===e e p e x p p 。

同理,当信源处于状态103=e 时,

5.0)|()|()10|0(3131===e e p e x p p 5.0)|()|()10|1(3232===e e p e x p p

当信源处于状态114=e

2.0)|()|()11|0(4341===e e p e x p p

8.0)|()|()11|1(4442===e e p e x p p

这样,由二元信源X }1,0{∈得到的状态空间{}4,321,,e e e e 和相应的一步转移概率构成的2阶马尔可夫信源模型为

4,3,2,1,)/(43

2

1=?

?

??

??j i e e p e e e e i j

0)(,

1

)/(4

1

>=∑=i j i j

e p e e

p 由∑===4

1

4,3,2,1)

/()()(i i j i j j e e p e p e p

可求出稳定状态下的)(j e p ,称为状态极限概率。

将一步转移概率代入上式得:

)(8.0)(5.0)()(2.0)(5.0)()(5.0)(2.0)()(5.0)(8.0)(424423312311e p e p e p e p e p e p e p e p e p e p e p e p +=+=+=+= 解此方程组得

142)()(145)()(3241=

==

=e p e p e p e p

计算极限熵

)/(8.0)/(log )/()(4

14

112symbol bit e e p e e p e p H H i j i j i j i =-==∑∑==+∞

需要注意的是∞H 并非在任何情况下都存在。首先应记住的是:我们讨论的是平稳信源。其次,对n 元m 阶马尔可夫信源来说,只有极限概率

m

j n j e p ,,2,1),( =都存在时,方能计算出∞H 。从理论上

可以证明,如果m 阶马尔可夫信源稳定后具有各态历经性,则状态极限概率)(j e p 可根据式(10)求出。

必须强调的是,m 阶马尔可夫信源和消息长度为m 的有记忆信源,其所含符号的依赖关系不同,对相应关系的数学描述不同,平均信息量的计算公式也不

同。m 阶马尔可夫信源的记忆长度虽为有限值m ,但符号之间的依赖关系延伸到无穷,通常用状态转移概率(条件概率)来描述这种依赖关系。可理解为马尔可夫信源以转移概率发出每个信源符号,所以平均每发一个符号提供的信息量应是极限熵1+m H 。而对于长度为m 的有记忆信息源X ,发出的则是一组组符号序列,每m 个符号构成一个符号序列组,代表一个消息。组与组之间是相互统计独立的,因此符号之间的相互依赖关系仅限于符号之间的m 个符号,一般用这m 个符号的联合概率来描述符号间的依赖关系。对于这种有记忆信源,平均每发一个符号,(不是一个消息)提供的信息量,是m 个符号的联合熵的m 分之一,即平均符号熵

)(1

)(21m m X X X H m

X H =

[例2.4.1]设某单符号信源模型为

?

?????=??????04.005.006.007.010.010.018.04.0)(87654321

x x x x x x x x x p X 计算得

)/(55.2)(符号比特=X H

323.1)]([2=i x I σ

若要求编码效率为90%,即

90.0)()

(=+ε

X H X H

则 ε=0.28

设译码差错率为610-,由式(3)可得 7106875.1?≥L

由此可见,在差错率和效率的要求都不苛刻的情况下,就必须有1600多万个信源符号一起编码,技术实现非常困难。

不仅如此,它的编码效率也不高。对8种可能的取值编定长码,要无差错地译码,每种取值需用3个比特,其编码效率

%853

55.2==η

为了解决这一问题,就出现了不等长编码,也称变长编码。

不等长编码允许把等长的消息变换成不等长的码序列。通常把经常出现的消息编成短码,不常出现的消息编成长码。这样可使平均码长最短,从而提高通信效率,代价是增加了编译码设备的复杂度。例如在不等长码字组成的序列中要正确识别每个长度不同的码字的起点就比等长码复杂得多。另外,接收到一个不等长码序列后,有时不能

马上断定码字是否真正结束,因而不能立即译出该码,要等到后面的符号收到后才能正确译出。这就是所谓的译码同步和译码延时问题。

[思考题] 已知12个球中有一个球的重量与其它球不同,其它球均等重。问用无砝码的天平至少须几次才能找出此球? 解:天平有3种状态,即平衡,左重,左轻,所以每称一次消除的不确定性为log3,12个球中的不等重球(可较轻,也可较重)的

不确定性为:24log 21

121log =?- 因为 3log3

>log24

∴3次测量可以找出该球 具体称法略。

[例一]一副充分洗乱了的牌(含52张牌),试问:

(1) 任一特定排列所给出的信息量是多少?

(2) 若从中抽取13张牌,所给出的点数都不

相同能得到多少信息量?

(1)任意排列共有!5252

52=P 种,则任一排列

的自信息量为:!52log !521

log =-。

(2)应将点数相同花色不同的牌看作一类,则任意抽取的13张牌应在13类中分别进行。其概率为:

C C C C C 1352

1

4

1

441

481

52....,

∴ 信息量C

C C C C 1352

1

4

144148

152

....log -=。 [例二] 已知随机变量X 和Y 的联合概率分布满足:6

1)()(,3

2)(,4

1)()(,2

1)(3

21

3

21

======b p b p b p a p a p a p

试求能使H(XY)取最大值的联合概率分布。

H(X Y) ≤ H(X) + H(Y) 等号在X 、Y 独立时取得

∴P(1

1b a ) = 31 P(2

1

b a ) = 121 P(3

1

b a ) = 12

1

P(1

2

b a ) = 6

1 P(2

2

b a ) = 241 P(3

2

b a ) = 241 P(1

3

b a ) = 6

1 P(2

3

b a ) = 241 P(3

3

b a ) = 241 满足 H(XY) 取最大值

[例三]求证:

I(X;Y;Z)=H(XYZ)-H(X)-H(Y)-H(Z)+I(X;Y)+I(Y;Z)+I(Z;X)

右式,原式成立

故左式而等式右边=---=-+-+-+---=---=-+--=+--=-=)

|()|()|()()|()()|()()|()()

()()()()

|()|()|()()()()|()|()()

|()|()|()()

|;();();;(X Z H Z Y H Y X H XYZ H X Z H Z H Z Y H Y H Y X H X H Z H Y H X H XYZ H X Z H Z Y H Y X H XYZ H XZ H XYZ H Z Y H Y X H X H XZ Y H Z Y H Y X H X H Z Y X I Y X I Z Y X I

[例4]令X 为掷钱币直至其正面第一次朝上所需的次数,求H(X)

P(X=n) = 21

)21(1n ?- = n )21(

H(X) = ∑∞

=--1n n 1n )21log()2

1(21 = ∑n

)21(n = 2 bit

[例5]一个无记忆信源有四种符号0,1,2,

3。已知81

414183)3(,)2(,)1(,)0(====p p p p 。

试求由6000个符号构成的消息所含的信息量。 解:先计算一个符号所含的平均自信息量,

即信源熵H

H=∑=-3

)(log )(i i P i p =1.9056bit 无记忆信源由6000个符号构成的符号序列消息bit X H X

H 11434)(6000)(6000

==

[例6]发出二重符号序列消息的信源熵为

),(2X H 而一阶马尔可夫信源的信源熵为),(X X H 试比较这两者的大小,并说明原因。 解:根据公式)()()(X Y H X H XY H +=,当Y 和

X 为同一集合时,有)()()()(2

X X H X H X H XX H +==,各种熵和条件熵均为非负值,当且仅当X 中只含有一个确定性事件时才出现H (X )=0。当X 中含有二个或二个以上事件时,有H (X )

>0,及H (X 2

)>0,H (X|X )>0,因为H

(X )>0所以H (X 2

)>H (X|X )

说明,在一般情况下,发二重符号序列的信

源的信源熵H (X 2

)大于一阶马尔可夫过程的信源熵H (X|X )

[例7]有一个马尔可夫信源,已知32

11)(=x x p ,

3112)(=x x p ,

1)(21=x x p ,0)(22=x x p ,试画出该信源的概率转移图,并求出信源熵。 解:该信源的概率转移图为:

1/3

○ ○

2/3(x 1) 1 (x 2)

在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p

=)()(213

2x p x p +

)()()(1122x p x x p x p =+)()(112x p x x p

=)(0)(213

1x p x p + )()(21x p x p +=1

得4

31)(=x p 412)(=x p

马尔可夫信源熵H = ∑∑-I j

i j i j i x x p x x p x p )(log )()( 得 H=0.689bit/符号

信息论与编码复习题目

信息论复习提纲 第一章绪论 1.通信系统模型; 2.香浓信息的概念; 3.信源、信道、信源编码和信道编码研究的核心问题。 第二章离散信源及信源熵 1.离散信息量、联合信息量、条件信息量、互信息量定义; 2.信源熵、条件熵、联合熵定义; 3.平均互信息量定义、性质、三种表达式及物理意义,与其它熵的关系(不证明); 4.最大信源熵定理及证明; 5.本章所有讲过的例题; 第三章离散信源的信源编码 1.信息传输速率、编码效率定义; 2.最佳编码定理(即节定理:概率越大,码长越小;概率越小,码长越大)及证明; 3.码组为即时码的充要条件; 4.单义可译定理(Kraft不等式)及应用; 5.费诺编码方法、霍夫曼编码方法应用(二进制,三进制,四进制);6.本章所有讲过的例题; 第四章离散信道容量 1.利用信道矩阵计算信道容量(离散无噪信道、强对称离散信道、对称离

散信道、准对称离散信道); 2.本章讲过的例题; 第五章连续消息和连续信道 1.相对熵的定义; 2.均匀分布、高斯分布、指数分布的相对熵及证明; 3.峰值功率受限条件下的最大熵定理及证明,平均功率受限条件下的最大熵定理及证明,均值受限条件下的最大熵定理及证明; 4.香农公式及意义; 5.本章所有讲过的例题; 第六章差错控制 1.重量、最小重量、汉明距离、最小汉明距离、编码效率的定义;2.最小距离与检错、纠错的关系(即节定理); 3.本章所有讲过的例题; 第七章线性分组码 1.线性分组码定义; 2.线性分组码的最小距离与最小重量的关系及证明; 3.生成矩阵、一致校验矩阵定义,给出线性方程组求出生成矩阵和一致校验矩阵的标准形式,生成矩阵与一致校验矩阵的关系; 4.制作标准阵列并利用标准阵列译码; 5.本章所有讲过的例题; 第八章循环码 1.生成多项式的特点,有关定理(三定理1,定理2,定理3)及证明;

答案~信息论与编码练习

1、有一个二元对称信道,其信道矩阵如下图所示。设该信道以1500个二元符号/秒的速度传输输入符号。现有一消息序列共有14000个二元符号,并设在这消息中P(0)=P(1)=1/2。问从信息传输的角度来考虑,10秒钟内能否将这消息序列无失真地传送完? 解答:消息是一个二元序列,且为等概率分布,即P(0)=P(1)=1/2,故信源的熵为H(X)=1(bit/symbol)。则该消息序列含有的信息量=14000(bit/symbol)。 下面计算该二元对称信道能传输的最大的信息传输速率: 信道传递矩阵为: 信道容量(最大信息传输率)为: C=1-H(P)=1-H(0.98)≈0.8586bit/symbol 得最大信息传输速率为: Rt ≈1500符号/秒× 0.8586比特/符号 ≈1287.9比特/秒 ≈1.288×103比特/秒 此信道10秒钟内能无失真传输得最大信息量=10× Rt ≈ 1.288×104比特 可见,此信道10秒内能无失真传输得最大信息量小于这消息序列所含有的信息量,故从信息传输的角度来考虑,不可能在10秒钟内将这消息无失真的传送完。 2、若已知信道输入分布为等概率分布,且有如下两个信道,其转移概率矩阵分别为: 试求这两个信道的信道容量,并问这两个信道是否有噪声? 3 、已知随即变量X 和Y 的联合分布如下所示: 01100.980.020.020.98P ?? =?? ??11112222 1111222212111122221111222200000000000000000000000000000000P P ???????? ????==???? ????????11 2222111 22222log 4(00)1/()log 42/log 8(000000)2/(),H bit symbol H X bit symbol C C H bit symbol H X C =-===>=-==1解答:(1)由信道1的信道矩阵可知为对称信道故C 有熵损失,有噪声。(2)为对称信道,输入为等概率分布时达到信道容量无噪声

信息论与编码试题集与答案(2014)

一填空题 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前 后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大,最大熵值为。 3、香农公式为 为保证足够大的信道容量,可采用(1)用频带换信噪比; (2)用信噪比换频带。 4、只要,当N 足够长时,一定存在一种无失真编码。 5、当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 6、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 7.人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 8.信息的 可度量性 是建立信息论的基础。 9.统计度量 是信息度量最常用的方法。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。

信息论与编码试题集与答案(新)

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 (√ ) 2. 线性码一定包含全零码。 (√ ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 (√ ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 (√ ) 8. 信道容量是信道中能够传输的最小信息量。 (×) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 10. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方 法叫做最佳译码。 (√ )

信息论与编码考试试题

3、(12分)已知(7,3)分组码的生成矩阵为 100111001001111010011G ?? ??=?? ???? (1)、写出所有许用码组,并求出监督矩阵。 (2)、该码的编码效率为多少? (3)、若译码器输入的码组为l010001,请计算其校正子,并指出此接收码组中是否包含错误。 4、(12分)设有信源12 345678()0.40.140.10.10.070.060.050.04X a a a a a a a a P X ????= ??????? (1) 求信源熵)(X H 和信源的冗余度; (2) 完成二进制费诺编码,并计算其平均码长及编码效率。 (3) 完成二进制霍夫曼编码,并计算其平均码长及编码效率。

5、(12分)信源分布1 23911()10 2020x x x X P X ?? ????=?????? ?? ,信道转移概率矩阵51 1682415124681158 24 6P ?? ????? ? =?????????? , 信道输出符号Y = {y 1, y 2, y 3}。 (1) 若信源等概分布,对其按最大后验概率准则译码,并求平均错误概 率。 (2) 若信源等概分布,对其按最大似然准则译码,并求平均错误概率。 6、(18分) 已知(7,3)循环码的生成矩阵为 ?? ??? ?????=100110111011101010001G (1)、试写出该(7,3)循环码的生成多项式g (x )。 (2)、若输入信息码为101,试写出对应的循环码码组。 (3)、若接收到的码组为1010100,试恢复出正确的信息位。 (4)、该码能纠正几位错。

信息论与编码课后习题答案

1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。 解:该信源的香农线图为: 1/3 ○ ○ 2/3 (x 1) 1 (x 2) 在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p =)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得4 3 1)(=x p 4 12)(=x p 马尔可夫信源熵H = ∑∑- I J i j i j i x x p x x p x p )(log )()( 得 H=0.689bit/符号 2.设有一个无记忆信源发出符号A 和B ,已知4 341)(.)(= =B p A p 。求: ①计算该信源熵; ②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。 解:①∑- =X i i x p x p X H )(log )()( =0.812 bit/符号 ②发出二重符号序列消息的信源,发出四种消息的概率分别为 用费诺编码方法 代码组 b i BB 0 1 BA 10 2 AB 110 3 AA 111 3 无记忆信源 624.1)(2)(2 ==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号 B X H R )(22==0.963 bit/码元时间 ③三重符号序列消息有8个,它们的概率分别为 用霍夫曼编码方法 代码组 b i BBB 64 27 0 0 1 BBA 64 9 0 )(6419 1 110 3

信息论与编码复习题

一、填空题 1.设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___Pi=1/4___时,信源熵达到最大值,为__2bit_,此时各个消息的自信息量为____2bit_______。 2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3_____个随机错,最多能 纠正___INT__个随机错。 3.克劳夫特不等式是唯一可译码___存在___的充要条件。 4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是_I (X :Y )=H (X )-H (X/Y ) 5.__信源__编码的目的是提高通信的有效性,_信道_编码的目的是提高通信的可靠性,__ 加密__编码的目的是保证通信的安全性。 6.信源编码的目的是提高通信的 有效性 ,信道编码的目的是提高通信的 可靠性 ,加密 编码的目的是保证通信的 安全性 。 7.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8_____时,信 源熵达到最大值,为___3bit/符号_________。 8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越__小____。 9.信源的冗余度来自两个方面,一是信源符号之间的_相关性__,二是信源符号分布的 __不均匀性___。 10.最大后验概率译码指的是 译码器要在已知r 的条件下找到可能性最大的发码Ci 作为移 码估值 。 11.常用的检纠错方法有__前向纠错__、反馈重发和混合纠错三种。 二、单项选择题 1.下面表达式中正确的是( A )。 A. ∑=j i j x y p 1)/( B.∑=i i j x y p 1)/( C.∑=j j j i y y x p )(),(ω D.∑=i i j i x q y x p )(),( 2.彩色电视显像管的屏幕上有5×105 个像元,设每个像元有64种彩色度,每种彩度又有 16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个 组合之间相互独立。每秒传送25帧图像所需要的信道容量( C )。 A. 50106 B. 75106 C. 125106 D. 250106

信息论与编码期中试卷及答案

信息论与编码期中试题答案 一、(10’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 二、(10?)判断题 (1)信息就是一种消息。(? ) (2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。(? ) (3)概率大的事件自信息量大。(? ) (4)互信息量可正、可负亦可为零。(? ) (5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。 (? ) (6)对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。(? ) (7)非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。(? ) (8)信源变长编码的核心问题是寻找紧致码(或最佳码)。 (? ) (9)信息率失真函数R(D)是关于平均失真度D的上凸函数. ( ? ) 三、(10?)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (5分) 故p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (4分) I(A|B)=-log0.375=1.42bit (1分)

信息论与编码试卷及答案

一、概念简答题(每题5分,共40分) 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 平均自信息为:表示信源的平均不确定度,表示平均每个信源消息所提供的信息量。 平均互信息:表示从Y获得的关于每个X的平均信息量;表示发X前后Y的平均不确定性减少的量;表示通信前后整个系统不确定性减少的量。 2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 最大熵值为 3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。 平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。 4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有, 。说明经数据处理后,一般只会增加信息的损失。

5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。香农公式为 ,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。 由得,则 6.解释无失真变长信源编码定理。只要,当N足够长时,一定存在一种无失真编码。 7.解释有噪信道编码定理。答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和?答:1)保真度准则为:平均失真度不大于允许的失真度。 2)因为失真矩阵中每行都有一个0,所以有,而。 二、综合题(每题10分,共60分) 1.黑白气象传真图的消息只有黑色和白色两种,求: 1)黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵;

信息论与编码试题-精选.

模拟试题一 一、概念简答题(共10题,每题5分) 1.简述离散信源和连续信源的最大熵定理。 2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。 3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少? 4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 5.设某二元码字C={111000,001011,010110,101110}, ①假设码字等概率分布,计算此码的编码效率? ②采用最小距离译码准则,当接收序列为110110时,应译成什么码字? 6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按 发出符号,求

和平均符号熵 7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。

8.二元无记忆信源,有求:(1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?(2)求100个符号构成的信源序列的熵。 9.求以下三个信道的信道容量:

,,

10.已知一(3,1,3)卷积码编码器,输入输出关系为:

试给出其编码原理框图。 二、综合题(共5题,每题10分) 1.二元平稳马氏链,已知P(0/0)=0.9,P(1/1)=0.8,求: (1)求该马氏信源的符号熵。 (2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。 (3)求每符号对应的平均码长和编码效率。 2.设有一离散信道,其信道矩阵为,求:(1)最佳概率分布?

信息论与编码期末试卷

上海大学2011~2012学年度冬季学期试卷(A卷) 课程名:信息论与编码课程号: 07276033学分: 4 应试人声明: 我保证遵守《上海大学学生手册》中的《上海大学考场规则》,如有考试违纪、作弊行为,愿意接受《上海大学学生考试违纪、作弊行为界定及处分规定》的纪律处分。 应试人应试人学号应试人所在院系 题号 1 2 3 4 得分——————————————————————————————————————一:填空题(每空2分,共40分) 1:掷一个正常的骰子,出现‘5’这一事件的自信息量为________,同时掷两个正常的骰子,‘点数之和为5’这一事件的自信息量为___________.(注明物理单位) 2:某信源包含16个不同的离散消息,则信源熵的最大值为___________,最小值为_____________. 3:信源X经过宥噪信道后,在接收端获得的平均信息量称为______________. 4:一个离散无记忆信源输出符号的概率分别为p(0)=0.5,p(1)=0.25,p(2)=0.25,则由60个符号构成的消息的平均自信息量为__________. 5:信源编码可提高信息传输的___有效___性,信道编码可提高信息传输的___可靠_性. 6:若某信道的信道矩阵为 ? ? ? ? ? ? ? ? ? ? ? ? 001 100 010 100 ,则该信道为具有____归并____性能的信道 7:根据香农第一定理(定长编码定理)若一个离散无记忆信源X的信源熵为H(X),对其n个符号进行二元无失真编码时,其码字的平均长度必须大于____________ 8:若某二元序列是一阶马尔科夫链,P(0/0)=0.8,P(1/1)=0.7,则‘0’游程长度为4的概率为____________,若游程序列为312314,则原始的二元序列为_________. 9:若循环码的生成多项式为1 ) (2 3+ + =x x x g,则接收向量为(1111011)的伴随多项式为_______________ 10:对有32个符号的信源编4进制HUFFMAN码,第一次取_______个信源进行编码. 11:若一个线性分组码的所有码字为:00000,10101,01111,11010,则该码为(____,_____),该码最多可以纠正_______位错误,共有________陪集. 12:码长为10的线性分组码若可以纠正2个差错,其监督吗至少有__5____位. 13:(7,4)汉明码的一致校验矩阵为 ? ? ? ? ? ? ? ? ? ? 1,0,1,0,1, ,1 0,1,1,0,0, ,1 0,0,0,1,1, ,1 3 2 1 r r r ,则3 2 1 r r r 为__________. _______________________________________________________________ 草稿纸 成绩

信息论与编码理论习题答案

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少信 息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C =13.208 bit

2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、 ),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit 2.10 设一个系统传送10个数字,0,1,…,9。奇数在传送过程中以0.5的概 率错成另外一个奇数,其余正确接收,求收到一个数字平均得到的信息量。 解: 8,6,4,2,0=i √ );(Y X I =)(Y H -)|(X Y H 因为输入等概,由信道条件可知,

信息论与编码技术思考题与习题(1-2)

Chap1思考题与习题参考答案 1.1 信息论与编码技术研究的主要内容是什么? 信息论是一门应用概率论、随机过程、数理统计和近代代数的方法,来研究广义的信息传输、提取和处理系统中一般学科。编码技术研究的主要内容是如何既可靠又有效地传输信息。 1.2 简述信息理论与编码技术的发展简史。 1948年香农在贝尔系统技术杂志上发表了两篇有关“通信的数学理论”的文章。在这两篇论文中,他用概率论测度和数理统计的方法系统地讨论了通信的基本问题,得出了及格重要而带有普遍意义的结论,并由此奠定了现代信息论的基础。 从1948年开始,信息论的出现引起了一些有名的数学家如柯尔洛夫、A.Feinstein、J.Wolfowitz等人的兴趣,他们将香农已得到的数学结论做了进一步的严格论证和推广,使这一理论具有更为坚实的数学基础。 在研究香农信源编码定理的同时,另外一部分科学家从事寻找最佳编码(纠错码)的研究工作,并形成一门独立的分支——纠错码理论。 1959年香农发表了“保真度准则下的离散信源编码定理”,首先提出了率失真函数及率失真信源编码定理。从此,发展成为信息率失真编码理论。 香农1961年的论文“双路通信信道”开拓了网络信息论的研究。 现在,信息理论不仅在通信、计算机以及自动控制等电子学领域中得到直接的应用,而且还广泛地渗透到生物学、医学、生理学、语言学、社会学、和经济学等领域。 1.3 简述信息与消息、信号的定义以及三者之间的关系。 信息就是事物运动的状态和方式,就是关于事物运动的千差万别的状态和方式的知识。 用文字、符号、数据、语言、音符、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来成为消息。 把消息变换成适合信道传输的物理量,这种物理量称为信号。 它们之间的关系是:消息中包含信息,是信息的载体;信号携带消息,是消息的运载工具。 1.4 简述一个通信系统包括的各主要功能模块及其作用。 通信系统主要分成下列五个部分: (1)信息源。信源是产生消息和消息序列的源。 (2)编码器。编码是把消息变换成信号的措施。 (3)信道。信道是指通信系统把载荷消息的信号从甲地传到乙地的媒介。 (4)译码器。译码就是把信道输出的编码信号(已叠加了干扰)进行反变换。 (5)信宿。信宿是消息传送的对象,即接收消息的人或机器。 1.5 你有没有接触与考虑过信息与信息的测度问题,你如何理解这些问题? 略。 1.6 什么是事物的不确定性?不确定性如何与信息的测度发生关系? 由于主、客观事物运动状态或存在状态是千变万化的、不规则的、随机的。所以在通信以前,收信者存在“疑义”和“不知”,即不确定性。

信息论与编码理论课后习题答案高等教育出版社

信息论与编码理论习题解 第二章-信息量和熵 解: 平均每个符号长为:154 4.0312.032= ?+?秒 每个符号的熵为9183.03log 3 1 23log 32=?+?比特/符号 所以信息速率为444.34 15 9183.0=?比特/秒 解: 同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6 比特; 所以信息速率为600010006=?比特/秒 解:(a)一对骰子总点数为7的概率是 36 6 所以得到的信息量为 585.2)366(log 2= 比特 (b) 一对骰子总点数为12的概率是36 1 所以得到的信息量为 17.536 1 log 2= 比特 解: (a)任一特定排列的概率为 ! 521 ,所以给出的信息量为 58.225! 521 log 2 =- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 1352 13 13 521344!13C A =? 所以得到的信息量为 21.134 log 1313 52 2=C 比特. 解:易证每次出现i 点的概率为 21 i ,所以

比特比特比特比特比特比特比特398.221 log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21 log )(26 12=-==============-==∑ =i i X H x I x I x I x I x I x I i i i x I i 解: 可能有的排列总数为 27720! 5!4!3! 12= 没有两棵梧桐树相邻的排列数可如下图求得, Y X Y X Y X Y X Y X Y X Y X Y 图中X 表示白杨或白桦,它有???? ??37种排法,Y 表示梧桐树可以栽 种的位置,它有???? ??58种排法,所以共有???? ??58*???? ??37=1960种排法保证没有 两棵梧桐树相邻,因此若告诉你没有两棵梧桐树相邻时,得到关于树排列的信息为1960log 27720log 22-= 比特 解: X=0表示未录取,X=1表示录取; Y=0表示本市,Y=1表示外地; Z=0表示学过英语,Z=1表示未学过英语,由此得

信息论与纠错编码(电子工业出版社)第四章率失真编码 参考答案

4.1 当率失真函数R (D )取什么值的时候,表示不允许有任何失真。 解:当D=0时,表示不允许有任何失真,此时R (D )= H (X ), 即R max ((D )= H (X ) 4.2 说明信源在不允许失真时,其信息率所能压缩到的极限值是什么?当允许信源存在一定的失真时,其信息率所能压缩到的极限值又是什么? 解:不允许失真时,信息率压缩极限值R (D )= H (X );不允许失真时,信息率压缩极限值 R (D )= 0 4.3 在例4.8中,当允许D= 0.5δ时,请问每个信源符号至少需要几个二进制符号来对其编码? 解:因为二元信源率失真函数: ? ?? ??-=a D H p H D R )()( 其中a = 1(汉明失真), 所以二元信源率失真函数为: )()()(D H p H D R -= 当D= 2 P 时 []symbol nat p p p p p p p p p H p H p R /21ln 212ln 2)1ln()1(ln 2)(2?? ??????? ??-??? ??-++--+-=??? ??-=??? ?? 4.4 给定信源分布??????)(q X X = ??????2 5.025.05.0x 321x x ,失真测度矩阵[d]=?? ?? ? ?????011302120,求率失真 函数R (D )。 解:定义域: D min =0×0.5+0×0.25+0×0.25=0 D max =min{2×0.25+1×0.25,2×0.5+1×0.25,1×0.5+3×0.25}=0.75 值域: R (D min )= -0.5log0.5-0.25log0.25-0.25log0.25=0.45 R (D max )= 0 4.5 给定二元信源??? ???)(q X X = ??????5.05.0x x 21, 失真测度矩阵为[d]=?? ? ???00αα,求率失真函数R(D)。 解: 021 021),(min )(202121),()(min min min max =?+?=== ?+?===∑∑i j i j i i j i i j j y x d x p D a a y x d x p D D 因为二元等概信源率失真函数: ?? ? ??-=a D H n D R ln )(

信息论与编码试题集与答案(新)

" 1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. ? 7. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 8. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 ( ) 2. 线性码一定包含全零码。 ( ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. " 5. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 6. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 7. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 ( ) 8. 循环码的码集中的任何一个码字的循环移位仍是码字。 ( ) 9. 信道容量是信道中能够传输的最小信息量。 (×) 10. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 11. ! 12. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方

信息论与编码课后答案

一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =, ()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ?? ?= ? ??? 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =??++=?得1231132231231 112331223 231W W W W W W W W W W W W ?++=???+=???=???++=? 计算可得1231025925625W W W ?=??? =?? ?=?? 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =,(0|11)p =,(1|00)p =, (1|11)p =,(0|01)p =,(0|10)p =,(1|01)p =,(1|10)p =。画出状态图,并计算各状态 的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

信息论与编码试题集与答案

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。 按照信息的地位,可以把信息分成客观信息和主观信息。 人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。 信息的可度量性是建立信息论的基础。 统计度量是信息度量最常用的方法。 熵是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是∞。 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a)。

信息论与编码期末考试题----学生复习用

《信息论基础》参考答案 一、填空题 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为32log bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22 212x f x e σπσ -= 时,信源 具有最大熵,其值为值21 log 22 e πσ。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。 (2)()() 1222H X X H X =≥()()12333 H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

相关文档
最新文档