(完整版)信息论基础与编码课后题答案(第三章)

(完整版)信息论基础与编码课后题答案(第三章)
(完整版)信息论基础与编码课后题答案(第三章)

3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ????

=?

???

????

,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为516

61344P ????

=?

??????

?

,求: (1) 信源X 中事件1x 和2x 分别含有的自信息量;

(2) 收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3) 信源X 和信宿Y 的信息熵;

(4) 信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5) 接收到消息Y 后获得的平均互信息量(;)I X Y 。 解:(1)12()0.737,() 1.322I x bit I x bit ==

(2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-,

22(;)0.907I x y bit =

(3)()(0.6,0.4)0.971/H X H bit symbol ==

()(0.6,0.4)0.971/H Y H bit symbol ==

(4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol ==

(/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol =

(5)(;)0.9710.7140.257/I X Y bit symbol =-=

3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。该信道的正

确传输概率为0.5,错误传输概率平均分布在其他三个字母上。验证在该信道上每个字母传输的平均信息量为0.21比特。

证明:信道传输矩阵为:

11112666111162661111662611116662P ????????

??=?

?

??

????????

,信源信宿概率分布为:

1111()(){,,,}4444P X P Y ==, H(Y/X)=1.79(bit/符号),I(X;Y)=H(Y)- H(Y/X)=2-1.79=0.21(bit/符号)

3-3 已知信源X 包含两种消息:12,x x ,且12()() 1/2P x P x ==,信道是有扰的,

信宿收到的消息集合Y 包含12,y y 。给定信道矩阵为:0.980.020.2

0.8P ??

=?

???

,求平均互信息(;)I X Y 。

解:I(X;Y)=H(X)+H(Y)-H(XY)

H(X)=1 bit/符号,H(Y)=0.93 bit/符号,H(XY)=1.34 bit/符号, I(X;Y)=0.59 bit/符号。

3-4 设二元对称信道的传递矩阵为:213

3123

3??

???

???????

, (1) 若P(0)=

34,P(1)=1

4

,求()H X ,(/)H X Y ,(/)H Y X 和(;)I X Y ; (2) 求该信道的信道容量及其达到信道容量时的输入概率分布。

解:(1)H(X)=0.811(bit/符号),H(XY)=1.73(bit/符号),H(Y)=0.98(bit/符号),H(X/Y)=0.75(bit/符号),H(Y/X)=0.92(bit/符号),I(X ;Y)=0.06(bit/符号);

(2)C =0.082(bit/符号),最佳输入分布为:11{}22

X P = 3-5 求下列两个信道的信道容量,并加以比较:

(1) 22p p p p εεεε

ε

ε??

--?

?--???? (2) 200

2p p p p ε

εεε

ε

ε??

--??--????

其中1p p +=。 解:(1)

1log 2(,,2)(12)log(12)2log 41()log()()log()2log 2(12)log(12)2log 412()log()()log()(12)log(12)

C H p p p p p p p p p p εεεεεεε

εεεεεεεεεεεεεεεεε=-------=+--+--+----=-+--+-----(2)

2log 2(,,2)(12)log(12)2log 21()log()()log()2log 2(12)log(12)2log 21()log()()log()(12)log(12)

C H p p p p p p p p p p εεεεεεε

εεεεεεεεεεεεεεεε=-------=+--+--+----=+--+-----两者的信道容量比较:212C C ε=+

3-6 求题图3-6中信道的信道容量及最佳的输入概率分布。并求当0ε=和1

2

时的信道容量C 。

00

1

2

1

2

-X Y

题图 3-6

解:由图知信道转移矩阵为:

1

000101P εεεε????=-??

??-??

,此信道非对称信道,也非准对称信道,不能利用其公式计算。

此信道也不能采用先假设一种输入分布,利用信道容量解的充要性来计算。但此信道矩阵是

非奇异矩阵,又r =s ,则可利用方程组求解:

3

3

1

1

(/)(/)log (/),1,2,3j

i j j i j i j j P b

a P

b a P b a i β====∑∑,所以

1232

30(1)(1)log(1)log (1)(1)log(1)log βεβεβεεεεεβεβεεεε

=?

?

-+=--+??+-=--+? 解得:10β=,23(1)log(1)log ββεεεε==--+,所以

1()log 2log[12]j H j

C β

ε-==+∑,

11()22C C p b β--==,2()2()22C H C p b βε---==,3()3()22C H C p b βε---==,

根据3

1

()()(/),1,2,3j i

j

i i P b P a P b

a j ==

=∑,得最佳输入分布为:

11()()2C p a p b -==,()2323()()()()2H C p a p a p b p b ε--====,

当ε=0时,此信道为一一对应信道,

1231

log3,()()()3C p a p a p a ====;

当ε=0.5时,12311

log 2,(),()()24

C p a p a p a ====。

3-7 有一个二元对称信道,其信道矩阵为0.980.020.020.98??

?

???

。设该信道以1500个二元符号

每秒的速率传输输入符号。现有一消息序列共有14000个二元符号,并设在这个消息中,

(0)(1)1/2P P ==。问从信息传输的角度来考虑,10秒内能否将这消息序列无失真地传送

完?

解:信道容量:C =0.859(bit/符号),15000.8591288(/)t C bit s =?=,10秒内最大信息传输能力=12880 bits ,消息序列含有信息量=14000 bits ,

12880<14000,所以10秒内不能将这消息序列无失真地传送完。 3-8 有一离散信道,其信道转移概率如题图3-8所示,试求: (1) 信道容量C ;

(2) 若2ε=0,求信道容量。

1

1

ε

1εε--12

题图 3-8

解:(1)1

12212121(1)log

log (1)log(1)2

C εεεεεεεε-=--++---- (2)若20ε=,则11C ε=- 3-9 设离散信道矩阵为:

11

11336611116363P ????=?

???????

, 求信道容量C 。

解:C =0.041(bit/符号)。

3-10 若有一离散非对称信道,其信道转移概率如题图3-10所示。试求:

1

1

1/2

1/21/43/4

题图 3-10

(1) 信道容量1C ;

(2) 若将两个同样信道串接,求串接后的转移概率; (3) 求串接后信道的信道容量2C 。

答案:(1)此信道转移概率矩阵112

21344P ??

??

=?

???????

,信道容量1C =0.0487 bit/符号; (2)串接后的转移概率矩阵35885111616P ??

??=????????

(3)串接后信道的信道容量2C =0.0033 bit/符号。 3-11 设有一离散级联信道如题图3-11所示。试求:

x 1

x 0y 1

y 0z 1z 2

z 34

34

题图 3-11

(1)X 与Y 间的信道容量1C ; (2) Y 与Z 间的信道容量2C ;

(3)X 与Z 间的信道容量3C 及其输入分布()P x 。 答案:(1)11()C H ε=-

(2)2C =0.75 (bit/符号) (3)X 、Z 间信道转移概率矩阵为

313

3

10(1)

14444413

13

3

10

(1)4

4444εεε

εεεε

ε????-????-??=??????-??????-?????

?

??

它是准对称信道,当输入等概率分布时达到信道容量。()p x ={0.5,0.5}

33333

1.06(1)log (1)log 4444

C εεεε=+--+

3-12 若有两个串接的离散信道,它们的信道矩阵都是:

00100011

1

00220010P ??

????

=??????????

, 并设第一个信道的输入符号1234{,,,}X a a a a ∈是等概率分布,求(;)I X Z 和(;)I X Y 并加以比较。

解:串接后信道矩阵为

'

00010

0010

0100001000100101

1

11

00010000222211

000010001022P PP ??????

????????????===????????????

??????

????????????

1111

()[,,,]8842p Y =,(;)()(/) 1.5I X Y H Y H Y X =-= 比特/符号

1111

()[,,,]8824

p Z =,(;)()(/) 1.5I X Z H Z H Z X =-= 比特/符号

可见,(;)(;)I X Z I X Y =

3-13 若X ,Y ,Z 是三个随机变量,试证明:

(1)();(;)(;/)(;)(;/)I X YZ I X Y I X Z Y I X Z I X Y Z =+=+; (2)();/(;/)(/)(/)I X Y Z I Y X Z H X Z H X YZ ==-;

(3)();/0I X Y Z ≥,当且仅当(X Y Z ,,)是马氏链时等式成立。

3-14 若三个离散随机变量有如下关系:X Y Z =+,其中X 和Y 相互独立,试证明: (1) (;)()()I X Z H Z H Y =-;

(2) (;)()I XY Z H Z =; (3) ();()I X YZ H X =; (4) ();/()I Y Z X H Y =;

(5)();/(/)(/)I X Y Z H X Z H Y Z ==。

3-15 把n 个二元对称信道串接起来,每个二元对称信道的错误传递概率为p 。证明这n 个串接信道可以等效于一个二元对称信道,其错误传递概率为1

[1(12)]2

n p --。并证明:

0lim (;)0n n I X X →∞

=,设01p ≠或,信道的串接如题图3-15所示。

1

X 0

X n

X ...

题图 3-15

证明:当n =1时,111p

p P p p -??=?

?-??

,当n =2时,

2222211[1(12)][1(12)]11221111[1(12)][1(12)]22p p p p p p P p p p p p p ??+---??

--????==??????

--??????

--+-????

,错误传递概率为:21

[1(12)]2

p --。当考虑三个二元对称信道串接,得

22322333311[1(12)][1(12)]122111[1(12)][1(12)]2211[1(12)][1(12)]22

11[1(12)][1(12)]22p p p p P p p p p p p p p ??+---??-??=???

?-????--+-????

??+---??=????--+-????

用数学归纳法可证明:

11[1(12)][1(12)]2211[1(12)][1(12)]22n n n n n p p P p p ??+---??=????--+-????

3-16 有一信源发出恒定宽度,但不同幅度的脉冲,幅度值x 处在1a 和2a 之间。此信源

连至某信道,信道接收端接收脉冲的幅度y 处在1b 和2b 之间。已知随机变量X 和Y 的联合概率密度函数

21211

()()()

p xy a a b b =

--

试计算()H X ,()H Y ,()H XY 和(;)I X Y 。

答案:2

1

211()()b b p x p xy dy a a =

=

-?

,2

1

21

1

()()a

a p y p xy dx

b b ==-? 21()log()H X a a =-,21()log()H Y b b =-,2121()log()log()H XY a a b b =-+- (;)0I X Y =。X 与Y 统计独立。

3-17 设某连续信道,其特性如下:

2

2()2(/)](,)3x y p y x x y α-=-

-∞<<∞ 而信道输入变量X 的概率密度函数为:

2

2()]4x p x α=-

试计算:(1)信源的熵()H X ;(2)平均互信息(;)I X Y 。

答案:(1)X 是正态分布的,均值为零,方差为22α。

2211

()log 2log 422

H X e e πσπα==

(2)22

11

(;)()(/)log 4log 322

14log 23

I X Y H Y H Y X e e παπα=-=-=

=0.208 比特

3-18 设加性高斯白噪声信道中,信道带宽为3 kHz ,又设{(信号功率+噪声功率)/噪声功率}=10 dB 。

(1)试计算该信道传送的最大信息率(单位时间);

(2)若功率信噪比降为5 dB ,要达到相同的最大信息传输率,信道带宽应是多少? 解: (1)

10lg 10s n n P P dB P ??+= ???

,即:10s n n

P P

P +=,又已知信道带宽为3KHz ,由香农公式得:

3log 19.96610(/)s n P C W bit s P ??

=+=? ???

,此即为信道传送的最大信息率。

(2)若10lg 5s n P dB P ??=

?

??

即s

n

P P =此时要达到相同的最大信息传输率,设带宽为1W ,由香农公式得:3

1log 19.96610(/)s n P C W bit s P ??=+=? ???

计算得:1 4.844()W kHz =。

3-19 设电话信号的信息率为56 kbit/s ,在一个噪声功率谱为0N =6510/mW Hz ?-、限频F 、限输入功率P 的高斯信道中传送,若F =4 kHz ,问无差错传输所需的最小功率P 是多少W ?若F →∞,则P 是多少W ?

解:(1)0.328P W ≥

(2)40

1.9410log t C N P W e

-=

=? 3-20 在图片传输中,每帧约有62.2510?个像素,为了能很好地重现图像,需分16个亮度电平,并假设亮度电平等概率分布。试计算每秒钟传送30帧图片所需信道的带宽(信噪功率比为30 dB )。

解:6

8

30 2.2510log16 2.710R =???=?比特/秒

38101000,log(11000) 2.710SNR C W ===+=?,72.710W =?Hz

答案~信息论与编码练习

1、有一个二元对称信道,其信道矩阵如下图所示。设该信道以1500个二元符号/秒的速度传输输入符号。现有一消息序列共有14000个二元符号,并设在这消息中P(0)=P(1)=1/2。问从信息传输的角度来考虑,10秒钟内能否将这消息序列无失真地传送完? 解答:消息是一个二元序列,且为等概率分布,即P(0)=P(1)=1/2,故信源的熵为H(X)=1(bit/symbol)。则该消息序列含有的信息量=14000(bit/symbol)。 下面计算该二元对称信道能传输的最大的信息传输速率: 信道传递矩阵为: 信道容量(最大信息传输率)为: C=1-H(P)=1-H(0.98)≈0.8586bit/symbol 得最大信息传输速率为: Rt ≈1500符号/秒× 0.8586比特/符号 ≈1287.9比特/秒 ≈1.288×103比特/秒 此信道10秒钟内能无失真传输得最大信息量=10× Rt ≈ 1.288×104比特 可见,此信道10秒内能无失真传输得最大信息量小于这消息序列所含有的信息量,故从信息传输的角度来考虑,不可能在10秒钟内将这消息无失真的传送完。 2、若已知信道输入分布为等概率分布,且有如下两个信道,其转移概率矩阵分别为: 试求这两个信道的信道容量,并问这两个信道是否有噪声? 3 、已知随即变量X 和Y 的联合分布如下所示: 01 100.980.020.020.98P ?? =?? ??11112222 1111222212111122221111222200000000000000000000000000000000P P ????????????==????????????11 222 2111 2222 2 log 4(00)1/()log 42/log 8(000000)2/(),H bit symbol H X bit symbol C C H bit symbol H X C =-===>=-==1解答:(1)由信道1的信道矩阵可知为对称信道故C 有熵损失,有噪声。(2)为对称信道,输入为等概率分布时达到信道容量无噪声

(完整版)模拟电路第七章课后习题答案

第七章 习题与思考题 ◆◆ 习题 7-1 在图P7-1所示的放大电路中,已知R 1=R 2=R 5=R 7=R 8=10k Ω,R 6=R 9=R 10=20k Ω: ① 试问R 3和R 4分别应选用多大的电阻; ② 列出u o1、u o2和u o 的表达式; ③ 设u I1=3V ,u I2=1V ,则输出电压u o =? 解: ① Ω=Ω==k k R R R 5)10//10(//213,Ω≈Ω==k k R R R 67.6)20//10(//654 ② 1111211010I I I o u u u R R u -=-=- =,2226525.1)2010 1()1(I I I o u u u R R u =+=+=, 2121217932)5.1(10 20 )(I I I I o o o u u u u u u R R u +=---=-- = ③ V V u u u I I o 9)1332(3221=?+?=+= 本题的意图是掌握反相输入、同相输入、差分输入比例运算电路的工作原理,估算三种比例电路的输入输 出关系。 ◆◆ 习题 7-2 在图P7-2所示电路中,写出其 输出电压u O 的表达式。 解: I I I I o u R R u R R u R R u R R u ])1[()()1(4 5124 512 ++=--+ = 本题的意图是掌握反相输入和同相输入比例 电路的输入、输出关系。

◆◆ 习题 7-3 试证明图P7-3中,)(1122 1 I I o u u R R u -= )+( 解: 11 2 1)1(I o u R R u + = ))(1()1()1()1()1()1(122 122112122111221221121I I I I I I I o o u u R R u R R u R R u R R u R R R R u R R u R R u -+=+++ -=+++-=++- = 本题的意图是掌握反相输入和同相输入比例电路的输入、输出关系。 ◆◆ 习题 7-4 在图P7-4所示电路中,列出u O 的表达式。 解: 反馈组态应为深度电压串联负反馈,因此有uu uf F A &&1= I o R R I o uf uu u R R u u R R u R R R R R A R R R F )1()1(11 7373737373313+=???→?+=?+=+=?+==若&&

信息论基础各章参考答案

各章参考答案 2.1. (1)4.17比特 ;(2)5.17比特 ; (3)1.17比特 ;(4)3.17比特 2.2. 1.42比特 2.3. (1)225.6比特 ;(2)13.2比特 2.4. (1)24.07比特; (2)31.02比特 2.5. (1)根据熵的可加性,一个复合事件的平均不确定性可以通过多次实验逐步解除。如果我们使每次实验所获得的信息量最大。那么所需要的总实验次数就最少。用无砝码天平的一次称重实验结果所得到的信息量为log3,k 次称重所得的信息量为klog3。从12个硬币中鉴别其中的一个重量不同(不知是否轻或重)所需信息量为log24。因为3log3=log27>log24。所以在理论上用3次称重能够鉴别硬币并判断其轻或重。每次实验应使结果具有最大的熵。其中的一个方法如下:第一次称重:将天平左右两盘各放4枚硬币,观察其结果:①平衡 ②左倾 ③右倾。ⅰ)若结果为①,则假币在未放入的4枚币,第二次称重:将未放入的4枚中的3枚和已称过的3枚分别放到左右两盘,根据结果可判断出盘中没有假币;若有,还能判断出轻和重,第三次称重:将判断出含有假币的三枚硬币中的两枚放到左右两盘中,便可判断出假币。ⅱ)若结果为②或③即将左盘中的3枚取下,将右盘中的3枚放到左盘中,未称的3枚放到右盘中,观察称重砝码,若平衡,说明取下的3枚中含假币,只能判出轻重,若倾斜方向不变,说明在左、右盘中未动的两枚中其中有一枚为假币,若倾斜方向变反,说明从右盘取过的3枚中有假币,便可判出轻重。 (2)第三次称重 类似ⅰ)的情况,但当两个硬币知其中一个为假,不知为哪个时, 第三步用一个真币与其中一个称重比较即可。 对13个外形相同的硬币情况.第一次按4,4,5分别称重,如果假币在五个硬币的组里,则鉴 别所需信息量为log10>log9=2log3,所以剩下的2次称重不能获得所需的信息. 2.6. (1)215 log =15比特; (2) 1比特;(3)15个问题 2. 7. 证明: (略) 2.8. 证明: (略) 2.9. 31)(11= b a p ,121 )(21=b a p , 121 )(31= b a p , 61)()(1312= =b a b a p p , 241)()()()(33233222= ===b a b a b a b a p p p p 。 2.10. 证明: (略) 2.11. 证明: (略)

信息论与编码课后习题答案

1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。 解:该信源的香农线图为: 1/3 ○ ○ 2/3 (x 1) 1 (x 2) 在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p =)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得4 3 1)(=x p 4 12)(=x p 马尔可夫信源熵H = ∑∑- I J i j i j i x x p x x p x p )(log )()( 得 H=0.689bit/符号 2.设有一个无记忆信源发出符号A 和B ,已知4 341)(.)(= =B p A p 。求: ①计算该信源熵; ②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。 解:①∑- =X i i x p x p X H )(log )()( =0.812 bit/符号 ②发出二重符号序列消息的信源,发出四种消息的概率分别为 用费诺编码方法 代码组 b i BB 0 1 BA 10 2 AB 110 3 AA 111 3 无记忆信源 624.1)(2)(2 ==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号 B X H R )(22==0.963 bit/码元时间 ③三重符号序列消息有8个,它们的概率分别为 用霍夫曼编码方法 代码组 b i BBB 64 27 0 0 1 BBA 64 9 0 )(6419 1 110 3

信息论与编码试题集与答案(2014)

一填空题 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前 后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大,最大熵值为。 3、香农公式为 为保证足够大的信道容量,可采用(1)用频带换信噪比; (2)用信噪比换频带。 4、只要,当N 足够长时,一定存在一种无失真编码。 5、当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 6、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 7.人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 8.信息的 可度量性 是建立信息论的基础。 9.统计度量 是信息度量最常用的方法。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。

计算机网络课后题答案第七章

第七章网络安全 7-01 计算机网络都面临哪几种威胁?主动攻击和被动攻击的区别是什么?对于计算机网 络的安全措施都有哪些? 答:计算机网络面临以下的四种威胁:截获(interception),中断(interruption),篡改 (modification),伪造(fabrication)。 网络安全的威胁可以分为两大类:即被动攻击和主动攻击。 主动攻击是指攻击者对某个连接中通过的PDU 进行各种处理。如有选择地更改、删除、 延迟这些PDU。甚至还可将合成的或伪造的PDU 送入到一个连接中去。主动攻击又可进一步 划分为三种,即更改报文流;拒绝报文服务;伪造连接初始化。被动攻击是指观察和分析某一个协议数据单元PDU 而不干扰信息流。即使这些数据对 攻击者来说是不易理解的,它也可通过观察PDU 的协议控制信息部分,了解正在通信的协议 实体的地址和身份,研究PDU 的长度和传输的频度,以便了解所交换的数据的性质。这种被 动攻击又称为通信量分析。 还有一种特殊的主动攻击就是恶意程序的攻击。恶意程序种类繁多,对网络安全威胁

较大的主要有以下几种:计算机病毒;计算机蠕虫;特洛伊木马;逻辑炸弹。 对付被动攻击可采用各种数据加密动技术,而对付主动攻击,则需加密技术与适当的 鉴别技术结合。 7-02 试解释以下名词:(1)重放攻击;(2)拒绝服务;(3)访问控制;(4)流量分析; (5)恶意程序。 答:(1)重放攻击:所谓重放攻击(replay attack)就是攻击者发送一个目的主机已接收 过的包,来达到欺骗系统的目的,主要用于身份认证过程。(2)拒绝服务:DoS(Denial of Service)指攻击者向因特网上的服务器不停地发送大量 分组,使因特网或服务器无法提供正常服务。 (3)访问控制:(access control)也叫做存取控制或接入控制。必须对接入网络的权限 加以控制,并规定每个用户的接入权限。 (4)流量分析:通过观察PDU 的协议控制信息部分,了解正在通信的协议实体的地址和 身份,研究PDU 的长度和传输的频度,以便了解所交换的数据的某种性质。这种被动攻击又 称为流量分析(traffic analysis)。

第七章 课后习题答案

第七章课后习题答案 二、单项选择题 1、2003年6月2日杜某将自己家的耕牛借给邻居刘某使用。6月8日刘某向杜某提出将耕牛卖给自己,杜某表示同意。双方商定了价格,并约定3天后交付价款。但6月10日,该头耕牛失脚坠下山崖摔死。对于该耕牛死亡的财产损失,应当由谁来承担?(C) A.杜某 B.杜某与刘某各承担一半 C.刘某 D.杜某承担1/3,刘某承担2/3 本题涉及交付时间的确定问题。依《合同法》第140条规定,标的物在订立合同之前已为买受人占有的,合同生效的时间为交付时间。本题中,刘某已经占有了杜某的耕牛。6月8日双方达成买卖协议,该时间即为标的物的交付时间。再依《合同法》第142条规定,标的物毁损、灭失的风险,在标的物交付之前由出卖人承担,交付之后由买受人承担,但法律另有规定或者当事人另有约定的除外。本题中,刘某和杜某对风险负担未有约定,耕牛已经交付于刘某,故刘某应承担该风险责任。本题正确选项为C。 2、甲方购买一批货物,约定于6月15日提货,但其因没有安排好汽车而未能提货。当天傍晚,出卖人的仓库遭雷击起火,货物被烧。你认为应如何确定损失的承担? A、出卖人,因为货物是在其控制之下 B、出卖人,因为货物所有权没有转移 C、买受人,因为他未能按时提货 D、双方分提,因为谁都没有过错 【答案】C 【考点】买卖合同的风险承担 【详解】根据《合同法》第143条的规定:因买受人的原因致使标的物不能按约定的期限交付的,买受人应当自违反约定之日起承担标的物毁损、灭失的风险。因此C正确。 3、甲向乙购进一批玉米,双方约定,合同履行地在乙所在城市S市。5月1日乙为甲代办托运运往M县。在运输过程中,5月3日甲与丙签订协议,将将批玉米转让给丙,在M县火车站交货。5月4日由于遇到洪爆发,火车在运输途中出轨,玉米损失。该损失应由谁承担? A、甲承担 B、乙承担 C、丙承担

信息论基础及答案

《信息论基础》试卷第1页 《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞-∞ ?→∞ --?? ) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x - )时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或 1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此 时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

信息论与编码理论课后习题答案高等教育出版社

信息论与编码理论习题解 第二章-信息量和熵 解: 平均每个符号长为:154 4.0312.032= ?+?秒 每个符号的熵为9183.03log 3 1 23log 32=?+?比特/符号 所以信息速率为444.34 15 9183.0=?比特/秒 解: 同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6 比特; 所以信息速率为600010006=?比特/秒 解:(a)一对骰子总点数为7的概率是 36 6 所以得到的信息量为 585.2)366(log 2= 比特 (b) 一对骰子总点数为12的概率是36 1 所以得到的信息量为 17.536 1 log 2= 比特 解: (a)任一特定排列的概率为 ! 521 ,所以给出的信息量为 58.225! 521 log 2 =- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 1352 13 13 521344!13C A =? 所以得到的信息量为 21.134 log 1313 52 2=C 比特. 解:易证每次出现i 点的概率为 21 i ,所以

比特比特比特比特比特比特比特398.221 log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21 log )(26 12=-==============-==∑ =i i X H x I x I x I x I x I x I i i i x I i 解: 可能有的排列总数为 27720! 5!4!3! 12= 没有两棵梧桐树相邻的排列数可如下图求得, Y X Y X Y X Y X Y X Y X Y X Y 图中X 表示白杨或白桦,它有???? ??37种排法,Y 表示梧桐树可以栽 种的位置,它有???? ??58种排法,所以共有???? ??58*???? ??37=1960种排法保证没有 两棵梧桐树相邻,因此若告诉你没有两棵梧桐树相邻时,得到关于树排列的信息为1960log 27720log 22-= 比特 解: X=0表示未录取,X=1表示录取; Y=0表示本市,Y=1表示外地; Z=0表示学过英语,Z=1表示未学过英语,由此得

信息论与编码试卷及答案

一、概念简答题(每题5分,共40分) 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 平均自信息为:表示信源的平均不确定度,表示平均每个信源消息所提供的信息量。 平均互信息:表示从Y获得的关于每个X的平均信息量;表示发X前后Y的平均不确定性减少的量;表示通信前后整个系统不确定性减少的量。 2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 最大熵值为 3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。 平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。 4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有, 。说明经数据处理后,一般只会增加信息的损失。

5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。香农公式为 ,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。 由得,则 6.解释无失真变长信源编码定理。只要,当N足够长时,一定存在一种无失真编码。 7.解释有噪信道编码定理。答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和?答:1)保真度准则为:平均失真度不大于允许的失真度。 2)因为失真矩阵中每行都有一个0,所以有,而。 二、综合题(每题10分,共60分) 1.黑白气象传真图的消息只有黑色和白色两种,求: 1)黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵;

物理化学第七章课后题答案

7.13 电池电动势与温度 的关系为 263)/(109.2/10881.10694.0/K T K T V E --?-?+= (1)写出电极反应和电池反应; (2)计算25℃时该反应的Θ Θ Θ ???m r m r m r H S G ,,以及电池恒温可逆放电时该反应 过程的。 (3)若反应在电池外在相同温度下恒压进行,计算系统与环境交换的热。 解:(1)电极反应为 阳极 +-→-H e H 22 1 阴极 --+→+Cl Hg e Cl Hg 222 1 电池反应为 (2)25 ℃时 {} V V E 3724.015.298109.215.19810881.10694.0263=??-??+=-- 1416310517.115.298108.510881.1)( -----??=???-?=??K V K V T E

因此, 1193.35)3724.0309.964851(--?-=???-=-=?mol kJ mol kJ zEF G m r 1111464.1410157.1309.964851-----??=?????=??=?K mol J K mol J T E zF S m r 11357.3164.1415.2981093.35--?-=??+?-=?+?=?mol kJ mol kJ S T G H m r m r m r 11,365.479.1615.298--?=??=?=mol kJ mol kJ S T Q m r m r (3)1,57.31-?-=?=mol kJ H Q m r m p 7.14 25℃时,电池AgCl s AgCl kg mol ZnCl Zn )()555.0(1-?电动势E=1.015V ,已知,,7620.0)(2V Zn Zn E -=+ΘV Ag AgCl Cl E 2222.0)(=-Θ,电池电动势的温度系数141002.4)( --??-=??K V T E p (1)写出电池反应; (2)计算电池的标准平衡常数; (3)计算电池反应的可逆热; (4)求溶液中2ZnCl 的标准粒子活度因子。 解:(2)ΘΘ Θ= -k F RT E E ln z 左右可以得到331088.1?=Θk (3)P m r m r T E TzF S T Q )( ,??=?=得到 =m r Q ,-23.131-?mol kJ (4)3 3 2)(4)(Θ ±± ==b b r a ZnCl a

信息论基础》试卷(期末A卷

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为1 23x x x X 1 11P 244?? ?? ? =?? ????? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log (b-a )bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为16w ,其概率密度函数是高斯分布时,差熵的最大值为 1 log32e 2 π;与其熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 8、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)。 (2)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论与编码课后答案

一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =, ()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ?? ?= ? ??? 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =??++=?得1231132231231 112331223 231W W W W W W W W W W W W ?++=???+=???=???++=? 计算可得1231025925625W W W ?=??? =?? ?=?? 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =,(0|11)p =,(1|00)p =, (1|11)p =,(0|01)p =,(0|10)p =,(1|01)p =,(1|10)p =。画出状态图,并计算各状态 的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

信息论与编码理论习题答案

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少信 息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C =13.208 bit

2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、 ),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit 2.10 设一个系统传送10个数字,0,1,…,9。奇数在传送过程中以0.5的概 率错成另外一个奇数,其余正确接收,求收到一个数字平均得到的信息量。 解: 8,6,4,2,0=i √ );(Y X I =)(Y H -)|(X Y H 因为输入等概,由信道条件可知,

信息论基础》试卷(期末A卷

重庆邮电大学2007/2008学年2学期 《信息论基础》试卷(期末)(A卷)(半开卷) 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X,其概率分布为 123 x x x X 111 P 244 ?? ?? ? = ?? ? ?? ?? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则 每十个符号的平均信息量是 15bit。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log(b-a)bit/自由度;若放大器的最高频率为F,则单位时间内输出的最大信息量是 2Flog(b-a)bit/s. 5. 若某一信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵的最大值为1 log32e 2 π;与其 熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r(S))。 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

计量课后习题第七章答案

习题 解释概念 (1)分类变量 (2)定量变量 (3)虚拟变量 ( 4)虚拟变量陷阱 (5)交互项 (6)结构不稳定 (7)经季节调整后的时间序列 答:(1)分类变量:在回归模型中,我们对具有某种特征或条件的情形赋值1,不具有某种特征或条件的情形赋值0,这样便定义了一个变量D : 1,0,D ?=??具有某种特征不具有某种特征 我们称这样的变量为分类变量。 (2)具有数值特征的变量,如工资、工作年数、受教育年数等,这些变量就称为定量变量。 (3)在回归模型中,我们对具有某种特征或条件的情形赋值1,不具有某种特征或条件的情形赋值0,这样便定义了一个变量D : 1,0,D ?=??具有某种特征不具有某种特征 我们称这样的变量为虚拟变量(dummy variable )。 (4)虚拟变量陷阱是指回归方程包含了所有类别(特征)对应的虚拟变量以及截距项,从而导致了完全共线性问题。 (5)交互项是指虚拟变量与定量变量相乘,或者两个定量变量相乘或是两个虚拟变量相乘,甚至更复杂的形式。比如模型: 12345i i i i i i i household lwage female married female married u βββββ=++++?+ female married ?就是交互项。 (6)如果利用不同的样本数据估计同一形式的计量模型,可能会得到1β、2β不同的估计结果。如果估计的参数之间存在着显著性差异,就称为模型结构不稳定。 (7)一些重要的经济时间序列,如果是受到季节性因素影响的数据,利用季节虚拟变量或者其他方法将其中的季节成分去除,这一过程被称为经季节调整的时间序列。

信息论基础与编码课后题答案第三章

3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ???? =? ??? ???? ,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为516 61344P ???? =? ?????? ? ,求: (1)信源X 中事件1x 和2x 分别含有的自信息量; (2)收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3)信源X 和信宿Y 的信息熵; (4)信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5)接收到消息Y 后获得的平均互信息量(;)I X Y 。 解:(1)12()0.737,() 1.322I x bit I x bit == (2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-, 22(;)0.907I x y bit = (3)()(0.6,0.4)0.971/H X H bit symbol == ()(0.6,0.4)0.971/H Y H bit symbol == (4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol == (/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol = (5)(;)0.9710.7140.257/I X Y bit symbol =-= 3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。该信道的正 确传输概率为0.5,错误传输概率平均分布在其他三个字母上。验证在该信道上每个字母传输的平均信息量为0.21比特。 证明:信道传输矩阵为:

信息论与编码理论习题答案全解

信息论与编码理论习题答案全解

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少 信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C =13.208 bit

2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、 ),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit 2.10 设一个系统传送10个数字,0,1,…,9。奇数在传送过程中以0.5的概 率错成另外一个奇数,其余正确接收,求收到一个数字平均得到的信息量。 解: 信道 X Y 9,7,5,3,1=i 8,6,4,2,0=i √Χ );(Y X I =)(Y H -)|(X Y H 因为输入等概,由信道条件可知,

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

信息论与编码理论第二章习题答案

I (X ;Y=1)= P(x/Y 1)I(x;Y 1) x P(x/Y 1)log P(x/Y 1) P(x) = P(X 0/Y 1)log P(X 0/Y 1) P(X 0) P(X 1/Y 1)log P(X 1/Y 1) P(X 1) 部分答案,仅供参考。 信息速率是指平均每秒传输的信息量点和划出现的信息量分别为log3Jog3, 2’ 一秒钟点和划出现的次数平均为 1 15 2 1 ~4 0.20.4 - 3 3 一秒钟点和划分别出现的次数平均为巴5 4 4 那么根据两者出现的次数,可以计算一秒钟其信息量平均为10 log 3 5 竺 5 4 2 4 4 2 解: ⑻骰子A和B,掷出7点有以下6种可能: A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量 -log(1/6)=1+log3 ~ bit (b)骰子A和B,掷出12点只有1种可能: A=6,B=6 概率为1/36,所以信息量 -log(1/36)=2+log9 ~ bit 解: 出现各点数的概率和信息量: 1 点:1/21 , log21 ?bit ; 2 点:2/21 , log21-1 ?bit ; 3 点:1/7 , log7 4 点:4/21 , log21-2 5 点:5/21 , log (21/5 )~; 6 点:2/ 7 , log(7/2)? 平均信息量: (1/21) X +(2/21) X +(1/7) X +(4/21) X +(5/21) X +(2/7) 解: X=1:考生被录取;X=0考生未被录取; Y=1:考生来自本市;Y=0考生来自外地; Z=1:考生学过英语;z=o:考生未学过英语 P(X=1)=1/4, P( X=q=3/4; P( Y=1/ X=1)=1/2 ;P( Y=1/ X=0)=1/10 ;P(Z=1/ Y=1 )=1, P( Z=1/ X=0, Y=0 )=, P( Z=1/ X=1, Y=0 )=, P(Z=1/Y=0)= (a)P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)= P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)= P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=

相关文档
最新文档