信息论基础与编码(第五章)

信息论基础与编码(第五章)
信息论基础与编码(第五章)

5-1 有一信源,它有六种可能的输出,其概率分布如下表所示,表中给出了对应的六种编码12345C C C C C 、、、、和6C 。

(1) 求这些码中哪些是唯一可译码; (2) 求哪些是非延长码(即时码);

(3) 对所有唯一可译码求出其平均码长。

解:(1(2)1,3,6是即时码。

5-2证明若存在一个码长为12,,,q l l l ???的唯一可译码,则一定存在具有相同码长的即时码。

证明:由定理可知若存在一个码长为Lq L L ,,2,1 的唯一可译码,则必定满足kraft 不等式

∑=-q

i l i

r

1

≤1。

由定理44?可知若码长满足kraft 不等式,则一定存在这样码长的即时码。所以若存在码长Lq L L ,,2,1 的唯一可译码,则一定存在具有相同码长P (y=0)的即时码。

5-3设信源1

2

61

26()s s s S p p p P s ???

??

??=????

???

????,61

1i i p ==∑。将此信源编码成为r 元唯一可译变长码(即码符号集12{,,,}r X x x x =???),其对应的码长为(126,,,l l l ???)=(1,1,2,3,2,3),求r 值的最小下限。

解:要将此信源编码成为 r 元唯一可译变长码,其码字对应的码长

(l 1 ,l 2 ,l 3, l 4,l 5, l 6)=(1,1,2,3,2,3) 必须满足克拉夫特不等式,即

1

3232116

1

≤+++++=------=-∑r r r r r r r

i li

所以要满足

12

223

2≤++r r r ,其中 r 是大于或等于1的正整数。 可见,当r=1时,不能满足Kraft 不等式。 当r=2, 18

2

4222>++,不能满足

Kraft 。

当r=3,

127

262729232<=++,满足Kraft 。 所以,求得r 的最大值下限值等于3。

5-4设某城市有805门公务电话和60000门居民电话。作为系统工程师,你需要为这些用户分配电话号码。所有号码均是十进制数,且不考虑电话系统中0、1不可用在号码首位的限制。(提示:用异前缀码概念) (1)如果要求所有公务电话号码为3位长,所有居民电话号码等长,求居民号码长度1L 的最小值;

(2)设城市分为A 、B 两个区,其中A 区有9000门电话,B 区有51000门电话。现进一步要求A 区的电话号码比B 区的短1位,试求A 区号码长度2L 的最小值。

解:(a) 805门电话要占用1000个3位数中的805个,即要占用首位为0~ 7的所有数字及以8为首的5个数字。因为要求居民电话号码等长, 以9为首的数字5位长可定义10 000个号码,6位长可定义100 000 个号码。所以min L 16=。

或由Craft 不等

式,有

8051060000101

31?+?≤--L 解得 L 1103

180********

5488≥--?=-log ., 即

min L 16=

(b) 在(a)的基础上,将80为首的数字用于最后5个公务电话,81~86 为首的6位数用于B 区51 000个号码,以9为首的5位数用于A 区9 000 个号码。所以,min L 25=。或

由Draft 不等式,有 80510

900010510001013

122?+?+?≤---+L L ()

或 80510

900051000101013

12?++??≤---()L

解得L 210

3

18051090005100

4859≥--?+=-log . 即min L 25=

5-5求概率分布为)152,152,51,51,31(的信源的二元霍夫曼码。讨论此码对于概率分布为

)5

1

,51,51,51,51(的信源也是最佳二元码。

解:信源的概率分布为:

)152

,152,51,51,31()(=i s p

二元霍夫曼码:00,10,11,010,011,码长:2,2,2,3,3

当信源给定时,二元霍夫曼码是最佳二元码。所以对于概率分布为)51,51,51,51,51(的信源,

其最佳二元码就是二元霍夫曼码。这二元霍夫曼码一定是三个信源符号的码长为2(码符号

/信源符号),另二个信源符号的码长为3(码符号/信源符号),其平均码长最短。因此,上

述对概率分布为)152

,152,51,51,31(信源所编的二元霍夫曼码也是概略分布为

)5

1

,51,51,51,51(信源的最佳二元码。 5-6 设二元霍夫曼码为(00,01,10,11)和(0,10,110,111),求出可以编得这些霍夫曼码的信源的所有概率分布。

解:由题意 假设信源所发出的是个符号的概率为 )P(S )P(S )P(S )P(S 1234≥≥≥ 由霍夫曼编码的特点知:1)P(S )P(S )P(S )P(S 1234=+++

根据霍夫曼编码的方法,每次概率最小的两个信源符号合并成一个符号,构成新的缩减信源,直至最后只剩两个符号。而且当缩减信源中的所有符号概率相等时,总是将合并的符号放在最上面。所以,对于二元霍夫曼码为(00,01,10,11)来说,每个信源都要缩减一次,所以34()()P S P S +要大于1()P S 和2()P S ,这时必有

12111

P(S )P(S ),P(S )33

+≥≤

同理对于二元霍夫曼码为(0,10,110,111)有

34111

P(S )P(S ),P(S )>33

+<

信源概率分布满足以上条件则其霍夫曼编码符合题意。

5-7 设一信源有K =6个符号,其概率分别为:123()1/2,()1/4,()1/8P s P s P s ===,45()()1/20P s P s ==,6()1/40P s =,对该信源进行霍夫曼二进制编码,并求编码效率。

解:相应的Huffman 编码是:{1,01,001,0001,00000,00001}。平均码长=1.95,熵=1.94 () 1.94

0.9951.95

log 2H X L η=

==

5-8 设信源概率空间为:

()??????s P S =?????

?9.0,1.0,21s s ,

(1)求()S H 和信源冗余度;

(2)设码符号为X ={0,1},编出S 的紧致码,并求紧致码的平均码长L ;

(3)把信源的N 次无记忆扩展信源N S 编成紧致码,试求N =2,3,4,∞时的平均码长

???

? ??N L N ; (4)计算上述N =1,2,3,4这四种码的编码效率和码冗余度。 解:(1)信源

()=??

?

???s P S ??

?

???9.01.021s s 其 ()()()≈-

=∑=i

i i

s P s P s H log 2

1

0.469 比特/符号

剩余度()=-

=2

log 1s H γ0.531=53.1%

(2)码符号X={0,1},对信源S 编紧致码为:1s 0→,12→s 其平均码长L =1 码符号/信源符号 (3) 当N=2时

()??????i P S α2=???

???====81.0,09.0,09.0,

01.0,,,224133212111s s s s s s s s αααα 紧致码(即霍夫曼码)为

,4α ,3α ,2α 1α

码字i W 0 , 10 , 110 , 111 码长i l 1 , 2 , 3 , 3

平均码长???

? ??N L

N

=21()i

i i

l

P ∑=4

1

α≈0.645 码符号/信源符号

N=3时,()??

?

???i P S α3=

()()()()()()()()??

?

??

???????3

2

2

2

2

2

23876543219.0,9.01.0,9.01.0,9.01.0,9.01.0,9.01.0,9.01.0,1.0,,,,,,,

αααααααα 对信源3

S 进行霍夫曼编码,其紧致码为

,8α ,7α ,6α ,5α ,4α ,3α ,2α

码字i W 0 , 100 , 101 , 110 , 11100 , 11101 , 11110 ,

11111

码长i l 1 , 3 , 3 , 3 , 5 , 5 , 5 ,

5

平均码长 ???

?

??N L N

=31()i

i i

l

P ∑=8

1

α≈0.533 码符号/信源符号

N=4时,()???

???i P S α4=

()()()()()()()()()()()???,

9.01.0,9.01.0,9.01.0,9.01.0,9.01.0,9.01.0,9.01.0,1.0,

,,,,,,,2222223333487654321αααααααα()()()()()()()()()()()??

?

4

3

3

3

3

2

2

2

2

2

2

1615141312111099.0,9.01.0,9.01.0,9.01.0,9.01.0,9.01.0,9.01.0,9.01.0,,,,,,

,

αααααααα 对信源4S 进行霍夫曼编码,其紧致码为

,16α ,15α ,14α ,13α ,12α ,11α ,10α

,9α

码字i W 0 , 100 , 101 , 110 , 1110 , 111110 , 1111000 ,

1111001,

码长i l 1 , 3 , 3 , 3 , 4 , 6 , 7 , 7 ,

,8α ,7α ,6α ,5α ,4α ,3α ,2α 1α 码字i W 1111010 , 1111011 , 1111110 , 111111101 , 111111110 , 111111111 , 1111111000 , 1111111001

码长i l 7 , 7 , 7 , 9 , 9 , 9 , 10 , 10

平均码长???

? ??N L

N

=41()≈∑=i

i i

l

P 16

1

α0.493 码符号/信源符号

N=∞时,根据香农第一定理,其紧致码的平均码长

→N lim

N L N =

()

r

s H log ≈0.469 码符号/信源符号 (4) 编码效率 ()

()

L S H L S H r =

=

η (r=2)

码剩余度 1-()()L

S H L S H r -=-=11η (r=2) 所以 N=1 编码效率≈1η0.469 码剩余度≈0.531=53.1% N=2 ≈2η0.727 ≈0.273=27.3% N=3 ≈3η0.880 ≈0.120=12%

N=4 ≈4η0.951 ≈0.049=4.9%

从本题讨论可知,对于变长紧致码,当N 不很大时,就可以达到高效的无失真信源编码。

5-9设信源空间为:????

??)s (P S =1234

56780.40.20.10.10.050.050.050.05s s s s s s s s ??????

,码符号为X ={0,1,2},试构造一种三元紧致码。

解:得信源符号 s 1 s 2 s 3 s 4 s 5 s 6 s 7 s 8 三元紧致码 1 00 02 20 21 22 010 011

5-10 某气象员报告气象状态,有四种可能的消息:晴、云、雨和雾。若每个消息是等概的,那么发送每个消息最少所需的二元脉冲数是多少?又若四个消息出现的概率分别是1/4,1/8,1/8和1/2,问在此情况下消息所需的二元脉冲数是多少?如何编码?

解: 第一种情况:需要二元脉冲数两个,可表示四种状态,满足我们的要求。

第二种情况:我们采用霍夫曼可编为1/2编为 1;1/4编为01,1/8编为000和001,脉冲数显然。

5-11 若某一信源有N 个符号,并且每个符号等概率出现,对这信源用最佳霍夫曼码进行二元编码,问当2i N =和2i N = 1 +(i 是正整数)时,每个码字的长度等于多少?平均码长是多少?

解:当2()i

N i = =正整数时用霍夫曼编码方法进行最佳编码,由于每个符号是等概率分布的,所以每个符号码长应相等,这样平均码长最短,而且信源符号个数正好等于i 2,则满足: i

l

q 22==,所以每个码字的码长i L i l i ==,。

当i N 2=个1时,因为每个符号等概率分布出现,所以每个符号的码长也应该基本相等,但现在信源符号个数不是正好等于i

2,所以必须有两个信源符号的码长延长一位码长,这样平均码长最短。

所以12+=i N 时12-i

个码字的码长为i l i =,其余2个码字的码长为1≠i 。平均码长

1

22

++

=i i L 。 5-12 若有一信源

12,()0.8,0.2s s S P s ????=????????

每秒钟发出2.66个信源符号。将此信源的输出符号送入某一个二元信道中进行传输(假设

信道是无噪无损的),而信道每秒钟只传递2个二元符号。试问信源不通过编码能否直接与信道连接?若通过适当编码能否在此信道中进行无失真传输?若能连接,试说明如何编码并说明原因。

解:信源

12,()0.8,0.2s s s P s ??

??=????????,其信源熵

2

1/()()log ()0.722i i i H s P s P s ==-≈ ∑比特符号

而其每秒钟发出2.66个信源符号,所以信源输出的信息速率为:

/2.66()

2.660.7221921t R H s /?≈ =?≈? 符号秒比特符号比特/秒

. 送入一个二元无噪无损信道,此信道的最大信息传输率(信道容量)/1C = 比特符号。而信道每秒钟只传输两个二元符号,所以信道的最大信息传输速率为:

//22t C C ?/=? = 比特符号符号秒比特秒

可见:t t R C <。

根据无噪信道编码定理(即无失真信源编码定理),因t t R C <。所以总能对信源的输出进行适当的编码,使此信源能在此信道中进行无失真地传输。如果对信源不进行编码,直接将信源符号1s 以“0”符号传送,2s 以“1”符号传送,这时因为信源输出为2.66(二元信源符号/秒),大于2(二元信道符号/秒),就会使信道输入端造成信源符号的堆积,信息不能按

时发送出去。所以,不通过编码此信源不能直接与信道连接。若要连接,必须对信源的输出符号序列进行编码,也就是对此信源的N 次扩展信源进行编码。但扩展次数越大,编码越复杂,设备的代价也越大,所以尽量使扩展的次数N 少,而又能使信源在此信道中无失真传输。先考虑2N =,并对二次扩展信源进行霍夫曼编码,得:

211122122,,,()0.64,0.16,0.16,0.04i j s s s s s s s s s P s s ?? ??

=???? ?????

? 二元霍夫曼码

0,10,110,111

得:

2 1.56L = 二元符号/二个信源符号二元符号/信源符号

L=0.78

二次扩展编码后,送入信道的传输速率为:

/0.78 2.66 /?? ≈ 二元符号信源符号信源符号秒

二元符号/秒

二元符号/秒

2.075>2 所以,必须考虑3N =即对三次扩展信源进行霍夫曼编码,得:

3111112121211122212221222,,,,,,,()0.512,0.128,0.128,0.128,0.032,0.032,0.032,0.008i j k s s s s s s s s s s s s s s s s s s s s s s s s s P s s s ?? ??=???? ?????? 二元霍夫曼码1,000,001,010,01100,01101,01110,01111

得:

3 2.184L = 二元符号/三个信源符号二元符号/信源符号

L=0.728

三次扩展码后,送入信道额传输速率为:

/0.728 2.66 /?? ≈ 二元符号信源符号信源符号秒

二元符号/秒

二元符号/秒

1.9365<2 此时,就可以在信道中进行无失真传输了。

5-13 现有一幅已离散量化后的图像,图像的灰度量化分成8级,如下表所示。表中数字为相应像素上的灰度级。

另有一无噪无损二元信道,单位时间(秒)内传输100个二元符号。

(1)现将图像通过给定的信道传输,不考虑图像的任何统计特性,并采用二元等长码,问需多长时间才能传送完这幅图像?

(2)若考虑图像的统计特性(不考虑图像的像素之间的依赖性),求这图像的信源熵

()H S ,并对每个灰度级进行霍夫曼最佳二元编码,问平均每个像素需用多少二元码符号来

表示?这时需多少时间才能传送完这幅图像?

(3)从理论上简要说明这幅图像还可以压缩,而且平均每个像素所需的二元码符号数可以小于()H S 比特。

解:(1)3秒。(2)2.59秒。

5-14设某无记忆二元信源,概率1p =P (1)=0.1,0p =P (0)=0.9,采用下述游程编码方案:第一步,根据0的游程长度编成8个码字,第二步,将8个码字变换成二元变长码,如下表所示:

(1) 试问最后的二元变长码是否是唯一可译码; (2) 试求中间码对应的信源序列的平均长度1L ;

(3) 试求中间码对应的变长码二元码码字的平均长度2L ;

(4) 计算比值21/L L ,解释它的意义,并计算这种游程编码的编码效率;

(5) 若用霍夫曼编码,对信源的四次扩展信源进行直接编码,求它的平均码长L (对应于每一个信源符号),并计算编码效率,试将此方法与游程编码方法进行比较;

(6) 将上述游程编码方法一般化,可把21s 个信源序列(上例中s =3)变换成二元变长码,即2s 个连零的信源序列编为码字0,而其他信源序列都编成s +1位的码字.若信源输出零的概率为0p ,求2L /1L 的一般表达式,并求0p =0.995时s 的最佳值。

解: (1) 根据唯一可译码的判断方法可知,最后的二元变长码是非延长码(即时码,所以它是唯一可译码。

(2) 因为信源是二元无记忆信源,所以有P(s i )= P(s i1) P(s 2)…P(s in ) 其中 s i =( s i1 s i2…s in ) s i1, s i2,…s in {0,1}

已知p 1=P(1)=0.1, p 0=P(0)=0.9,可求得信源符号序列的概率P(s i )。根据编码,可排出下列表

根据表可计算 L 1=

10()i i i P S l ≈5.6953 信源符号/中间码 (3) 根据表计算 L 2=

8

2

()i i i P S l ≈2.7086 二元码/中间码

(4)

2

1

L L ≈0.4756 二元码/信源符号 此值为每个信源符号所需的二元码符号数,也就是无记忆二元信源采用游程编码后每个二元信源符号所需的平均码长。

可计算无记忆二元信源的信息熵

H(S) =-

2

1

()log ()i i i P S P S ≈0.4690 比特/信源符号

所以,这种游程编码的效率

η=

21

()

/H S L L ≈0.986≈98.6 % (其中因为二元编码所以H r (S)=H(S))

(5)若对无记忆二元信源的次扩展信源直接进行霍夫曼编码,可得

L 4=

1

()i i i P S l ≈1.9702 二元码/4个信源符号

得 L =0.4926 二元码/信源符号 编码效率η=

()

H S L

≈0.952≈95.2 % 此编码效率低于游程编码方法。这是因为霍夫曼码只考虑N =4(固定值)时进行压缩,使概率大的对应于短码,概率小的对应于长码。但无记忆二元信源符号“0”出现的概率p 0很大,所以在信源输出序列中符号“0”连续出现的概率较大,而连续出现符号“1”的概率极小。游程编码正是考虑了这些特性,使N 较长(N =8)的连续出现的符号“0”序列压缩成一个二元码符号。所以,游程编码的编码效率较高。当然,当N 很大时(N =8)霍夫曼编码效率会提高,但其编码方法没有游程编码方法来得简单。

(6) 一般游程编码方法是将2s +1个信源序列中一个2s

个连续为零的序列编成码字0,而其他信源序列编成码长为s+1的码字,所以根据表中类似计算可得

L 1=

21210

1

2s

s i s

i ip p

p

其中p 0为信源中符号“0”出现的概率, p 1为符号“1”出现的概率,有p 0+ p 1=1。 展开上式,得 L 1 = p 0+ 2p 1 p 0+3 p 12

0p +…+2

1

10

2s

s p p +2

02s

s p

=(1- p 0)[(1+2 p 0+32

0p +…+2

1

2s

s p )]+2

02s

s p

=(1+2p 0+32

0p +…+2

1

2s

s p +202s

s p )-( p 0+220p +330p +…+2

02s

s p )

=(1+ p 0+2

0p +…+2

1

s

p )

=2

11s

p p

根据表中类似计算,得

L 2=(s+1)

21

210

1

s

s

i i p p p =(s+1) [(1- p 0)(1+ p 0+2

0p +…+2

1

s

p )]+2

0s

p

=(s+1)(1-20s

p )+20

s p

=1+s(1-2

0s

p )

2

1

L L 的一般表达式为

L =21L L =0

020

1(1

)1s

p s p p

当p 0=0.995, p 1=0.005时,求s 的最佳值,也就是求s 取某值时L 最短。可采用将L 对s 求偏导来解,但所得为超越方程,所以我们采用数值求解方法。 令 s =2 2s

=4 L =0.262

s =3 2s =8 L =0.1422 s =4 2s =16 L =0.0849 s =5 2s =32 L =0.0587 s =6 2s =64 L =0.482 s =7 2s =128 L =0.0456 s =8 2s =256 L =0.0469

所以得最佳

当p 0=0.995时二元信源的信息熵

H(S) = H(0.995) ≈0.0454 比特/信源符号

可见,当s =7时, L 已极接近H(S),编码效率达到99.5%

5-15有两个信源X 和Y 如下:

1

234567()0.20.190.180.170.150.10.01X x x x x x x x P x ????=????????

1

23456789()0.490.140.140.070.070.040.020.020.01Y y y y y y y y y y P y ????=????????

(1)分别用霍夫曼码编成二元变长唯一可译码,并计算编码效率; (2)分别用香农编码法编成二元变长唯一可译码,并计算编码效率; (3)分别用费诺编码法编成二元变长唯一可译码,并计算编码效率; (4)从X ,Y 两种不同信源来比较这三种编码方法的优缺点。 5-16 将幅度为3.25V 、频率为800Hz 的正弦信号输入采样频率为8000Hz 采样保持器后,通过一个如题图5-16所示量化数为8的中升均匀量化器。试画出均匀量化器的输出波形。

题图 5-16

5-17 已知某采样时刻的信号值x 的概率密度函数()p x 如题图5-17所示,将x 通过一个量化数为4的中升均匀量化器得到输出q x 。试求:

(1) 输出q x 的平均功率2

[]q S E x =;

(2) 量化噪声q e x x =-的平均功率2

[]q N E e =; (3) 量化信噪比/q S N 。

题图 5-17

5-18 在CD 播放机中,假设音乐是均匀分布,采样频率为44.1kHz ,采用16比特的中升均匀量化器进行量化。试确定50分钟音乐所需要的比特数,并求量化信噪比/q S N 。 5-19 采用13折线A 律非均匀量化编码,设最小量化间隔为?,已知某采样时刻的信号值x =635?。

(1)试求该非均匀量化编码c ,并求其量化噪声e ;

(2)试求对应于该非均匀量化编码的12位均匀量化编码'c 。

5-20 将正弦信号()sin(1600)x t t π=输入采样频率为8kHz 采样保持器后通过13折线A 律非均匀量化编码器,设该编码器的输入范围是[-1,1]。试求在一个周期内信号值

sin(0.2)i x i π=,0,1,,9i =???的非均匀量化编码i c ,0,1,,9i =???。

5-21将正弦信号()0.25sin(400)x t t π=输入采样频率为4kHz 采样保持器后通过差分脉冲编码调制器,设该调制器的初始值00q d =,00x =,采用码长为4的均匀量化编码,量化间隔?=0.03125。试求在半个周期内信号值0.25sin(0.1)i x i π=,0,1,,9i =???的差分脉冲编码i c 和量化值'

i x ,0,1,,9i =???。

.

信息论与编码第一章答案

第一章信息论与基础 1.1信息与消息的概念有何区别? 信息存在于任何事物之中,有物质的地方就有信息,信息本身是看不见、摸不着的,它必须依附于一定的物质形式。一切物质都有可能成为信息的载体,信息充满着整个物质世界。信息是物质和能量在空间和时间中分布的不均匀程度。信息是表征事物的状态和运动形式。 在通信系统中其传输的形式是消息。但消息传递过程的一个最基本、最普遍却又十分引人注意的特点是:收信者在收到消息以前是不知道具体内容的;在收到消息之前,收信者无法判断发送者将发来描述何种事物运动状态的具体消息;再者,即使收到消息,由于信道干扰的存在,也不能断定得到的消息是否正确和可靠。 在通信系统中形式上传输的是消息,但实质上传输的是信息。消息只是表达信息的工具,载荷信息的载体。显然在通信中被利用的(亦即携带信息的)实际客体是不重要的,而重要的是信息。 信息载荷在消息之中,同一信息可以由不同形式的消息来载荷;同一个消息可能包含非常丰富的信息,也可能只包含很少的信息。可见,信息与消息既有区别又有联系的。 1.2 简述信息传输系统五个组成部分的作用。 信源:产生消息和消息序列的源。消息是随机发生的,也就是说在未收到这些消息之前不可能确切地知道它们的内容。信源研究主要内容是消息的统计特性和信源产生信息的速率。 信宿:信息传送过程中的接受者,亦即接受消息的人和物。 编码器:将信源发出的消息变换成适于信道传送的信号的设备。它包含下述三个部分:(1)信源编码器:在一定的准则下,信源编码器对信源输出的消息进行适当的变换和处理,其目的在于提高信息传输的效率。(2)纠错编码器:纠错编码器是对信源编码器的输出进行变换,用以提高对于信道干扰的抗击能力,也就是说提高信息传输的可靠性。(3)调制器:调制器是将纠错编码器的输出变换适合于信道传输要求的信号形式。纠错编码器和调制器的组合又称为信道编码器。 信道:把载荷消息的信号从发射端传到接受端的媒质或通道,包括收发设备在内的物理设施。信道除了传送信号外,还存储信号的作用。 译码器:编码的逆变换。它要从受干扰的信号中最大限度地提取出有关信源输出消息的信息,并尽可能地复现信源的输出。 1.3 同时掷一对骰子,要得知面朝上点数之和,描述这一信源的数学 模型。 解:设该信源符号集合为X

信息论基础各章参考答案

各章参考答案 2.1. (1)4.17比特 ;(2)5.17比特 ; (3)1.17比特 ;(4)3.17比特 2.2. 1.42比特 2.3. (1)225.6比特 ;(2)13.2比特 2.4. (1)24.07比特; (2)31.02比特 2.5. (1)根据熵的可加性,一个复合事件的平均不确定性可以通过多次实验逐步解除。如果我们使每次实验所获得的信息量最大。那么所需要的总实验次数就最少。用无砝码天平的一次称重实验结果所得到的信息量为log3,k 次称重所得的信息量为klog3。从12个硬币中鉴别其中的一个重量不同(不知是否轻或重)所需信息量为log24。因为3log3=log27>log24。所以在理论上用3次称重能够鉴别硬币并判断其轻或重。每次实验应使结果具有最大的熵。其中的一个方法如下:第一次称重:将天平左右两盘各放4枚硬币,观察其结果:①平衡 ②左倾 ③右倾。ⅰ)若结果为①,则假币在未放入的4枚币,第二次称重:将未放入的4枚中的3枚和已称过的3枚分别放到左右两盘,根据结果可判断出盘中没有假币;若有,还能判断出轻和重,第三次称重:将判断出含有假币的三枚硬币中的两枚放到左右两盘中,便可判断出假币。ⅱ)若结果为②或③即将左盘中的3枚取下,将右盘中的3枚放到左盘中,未称的3枚放到右盘中,观察称重砝码,若平衡,说明取下的3枚中含假币,只能判出轻重,若倾斜方向不变,说明在左、右盘中未动的两枚中其中有一枚为假币,若倾斜方向变反,说明从右盘取过的3枚中有假币,便可判出轻重。 (2)第三次称重 类似ⅰ)的情况,但当两个硬币知其中一个为假,不知为哪个时, 第三步用一个真币与其中一个称重比较即可。 对13个外形相同的硬币情况.第一次按4,4,5分别称重,如果假币在五个硬币的组里,则鉴 别所需信息量为log10>log9=2log3,所以剩下的2次称重不能获得所需的信息. 2.6. (1)215 log =15比特; (2) 1比特;(3)15个问题 2. 7. 证明: (略) 2.8. 证明: (略) 2.9. 31)(11= b a p ,121 )(21=b a p , 121 )(31= b a p , 61)()(1312= =b a b a p p , 241)()()()(33233222= ===b a b a b a b a p p p p 。 2.10. 证明: (略) 2.11. 证明: (略)

信息论基础》试卷(期末A卷

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为1 23x x x X 1 11P 244?? ?? ? =?? ????? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log (b-a )bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为16w ,其概率密度函数是高斯分布时,差熵的最大值为 1 log32e 2 π;与其熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 8、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)。 (2)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

朱雪龙《应用信息论基础》习题第三章答案

第三章习题答案 3.1 解: 3.2 解: (1) ?? ???≠==? ?????=?? ?????≤??? ??-??? ??-???? ???????????≤---+-=? ?????≤+∞04m o d 004m o d )43()41(4104141l o g 43l o g 043l o g 4341l o g 4143l o g )(41l o g ),(100)()(log 4344000000N N C N n P N n P N n N n P n N n U H N U P P N N N 则上式变为的个数为,则出现的个数为设该序列中出现时 δδ (2) ?? ???≤-=∑-k N k k C k k N k k N 没有满足上述条件的 满足概率为同样可推得典型序列的 时 03log 20141)43()41(05.0δ 3.3 0.469 bit/sample 3.4 1) 不妨设)20,0(2j j k j k M <≤≥+=,可进行如下编码:首先作一深度为j i K i i i N N N N N P P U H U H X X X P U H X X X P N log )())(exp(),(lim )(),(log 1lim 12121∑=∞→∞→-=-=∴-=其中

的二叉满树,并在j 2个叶子节点中取k 个节点,以这k 个节点为根节点,生成k 个深度为1的子树,于是得到了一个有 M k k j =-+22个叶子的二叉树,对此二叉树的叶子按Halfman 方法进行编码,即得到最优的二元即时码。 2)M M k j k j M k j M I 2log 212)1(1=+=??+?+?= 当且仅当k=0,即j M 2=时,M I 2log = 3.5 解: 不妨设i u ( i =…-2,-1,0,1,2, …) 取自字母表{1a ,2a …n a },设一阶转移概率为 ????????????nn n n n n P P P P P P P P P 2 12222111211,所以在当前码字j u 进行编码时,由k j a u =-1,对j u 可能的取值,依概率分布(kn k P P 1) 进行Halfman 编码,即是最佳压缩方案。 3.6 0.801 bit/sample 3.7 1) 7 6 bit/sample 2) P(1)= 72 P(2)=73 P(3)=72 如按无记忆信源进行编码,则根据信源所处的的1,2,3三个状态对应编码成00,1,01。 平均码长为:72×2+73×1+72×2=7 11 bit/sample 如果按马尔可夫信源进行编码: 状态1时:a →0, b →10, c →11 状态2时:a →0, b →1 状态3时:无需发任何码字 ∴平均码长: 76072)121121(73)241241121(72=?+?+??+?+?+?? bit/sample 3.8 x 22j I -+= 3.9 1) H(X) = -(plog p+qlog q ) bit/sample H(Y)= -(plog p+qlog q ) bit/sample

信息论基础及答案

《信息论基础》试卷第1页 《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞-∞ ?→∞ --?? ) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x - )时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或 1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此 时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

信息论基础》试卷(期末A卷

重庆邮电大学2007/2008学年2学期 《信息论基础》试卷(期末)(A卷)(半开卷) 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X,其概率分布为 123 x x x X 111 P 244 ?? ?? ? = ?? ? ?? ?? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则 每十个符号的平均信息量是 15bit。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log(b-a)bit/自由度;若放大器的最高频率为F,则单位时间内输出的最大信息量是 2Flog(b-a)bit/s. 5. 若某一信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵的最大值为1 log32e 2 π;与其 熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r(S))。 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础7答案

《信息论基础》参考答案 一、填空题(共15分,每空1分) 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为32log bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或( )22 2x f x σ-时,信源具有最大熵,其值为值21 log 22 e πσ。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。 (2)()() 1222 H X X H X =≥() ()12333H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础答案2

《信息论基础》答案 一、填空题(共15分,每空1分) 1、若一连续消息通过某放大器,该放大器输出的最大瞬时电压为b,最小瞬时电压为a。 若消息从放大器中输出,则该信源的绝对熵是无穷大;其能在每个自由度熵的最 大熵是log b-a 。 2、高斯白噪声信道是指信道噪声服从正态分布,且功率谱为常数。 3、若连续信源的平均功率为 5 W,则最大熵为1.2 Iog10 e ,达到最大值的条件是高 斯信道。 4、离散信源存在剩余度的原因是信源有记忆(或输岀符号之间存在相关性)和不 等概。 5、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 6、离散无记忆信源在进行无失真变长信源编码时,码字长度是变化的。根据信源符号 的统计特性,对概率大的符号用短码,对概率小的符号用长码,这样平均码长 就可以降低,从而提高编码效率。 7、八进制信源的最小熵为0 ,最大熵为3bit 。 8、一个事件发生概率为,则自信息量为3bit 。 9、在下面空格中选择填入数字符号“,,,”或“ <” H XY 二HY HXY HY H X 二、判断题(正确打",错误打X)(共5分,每小题1分) 1)离散无(")记忆等概信源的剩余度为0 。 2) 离散无记忆信源N次扩展源的熵是原信息熵的N倍(") 3) 互信息可正、可负、可为零。 (") 4) 信源的真正功率P 永远不会大于熵功率P ,即P P (X ) 5) 信道容量与信源输出符号的概率分布有关。 (X ) 、(5分)已知信源的概率密度函数p x如下图所示,求信源的相对熵

* p x 0.5 4 h x 2 p x log p x dx 1bit自由度 四、(15分)设一个离散无记忆信源的概率空间为P x 0.5 0.5 它们通过干扰信道,信道输出端的接收信号集为丫= 示。 试计算: (1)信源X中事件x的自信息量;(3分) (2)信源X的信息熵;(3分) (3)共熵H XY ; ( 3 分) (4)噪声熵H Y X ;(3分) (5)收到信息丫后获得的关于信源X的平均信息量。(1)I x11bit (2)H丄,丄1bit/符号 2 2,已知信道出书概率如下图所 (3 分)

信息论基础与编码课后题答案第三章

3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ???? =? ??? ???? ,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为516 61344P ???? =? ?????? ? ,求: (1)信源X 中事件1x 和2x 分别含有的自信息量; (2)收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3)信源X 和信宿Y 的信息熵; (4)信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5)接收到消息Y 后获得的平均互信息量(;)I X Y 。 解:(1)12()0.737,() 1.322I x bit I x bit == (2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-, 22(;)0.907I x y bit = (3)()(0.6,0.4)0.971/H X H bit symbol == ()(0.6,0.4)0.971/H Y H bit symbol == (4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol == (/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol = (5)(;)0.9710.7140.257/I X Y bit symbol =-= 3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。该信道的正 确传输概率为0.5,错误传输概率平均分布在其他三个字母上。验证在该信道上每个字母传输的平均信息量为0.21比特。 证明:信道传输矩阵为:

信息论基础1答案

信息论基础1答案

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为 123x x x X 111P 2 44?? ?? ?=?? ??? ?? , 其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是 ∞ ;其能在每个自由度熵的最大熵是log (b-a ) bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为

16w,其概率密度函数是高斯分布时,差熵的 最大值为1log32e π;与其熵相等的非高斯分布信2 源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限 (S))。 制为信源熵(或H(S)/logr= H r 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑, 则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约 为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1, 即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位 二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概 率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验 概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷 积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

朱雪龙《应用信息论基础》习题答案

第二章习题参考答案 2.2证明: l(X;Y|Z) H(X|Z) H(X|YZ) H (XZ) H (Z) H (XYZ) H(YZ) H(X) H(Z |X) H(Z) H(XY) H (Z | XY) H (Y) H(Z|Y) [H(X) H(Y) H(XY)] H(Z|X) H(Z) H (Z | XY) H(Z |Y) I(X;Y) H(Z|X) H(Z) H (Z | XY) H(Z | Y) 0 H(Z) H(Z) H (Z | XY) H(Z) H(Z) H (Z | XY) 1 H (Z) H (Z | XY),即 H(Z) 1 H (Z | XY) 又 H(Z) 1,H(Z |XY) 0,故 H(Z) 1,H (Z | XY) 0 同理,可推出H(X) 1;H(Y) 1; H (XYZ) H(XY) H (Z | XY) H(X) H (Y) H (Z | XY) 1 1 0 2 2.3 1) H(X)= 0.918 bit , H(Y) = 0.918 bit 2) H(X|Y) 2 = bit H(Y|X)= 2 -bit , H(X|Z)= 3 2 — bit 3 3) I(X;Y): =0.251 bit , H(XYZ)= =1.585 bit 2.4证明:(1)根据熵的可加性,可直接得到 ,a k 1), H(Y) log(k 1),故原式得证 2.5考虑如下系统: 又 l(X;Y|Z) = H(X|Z) — H(X|YZ) = H(X|Z) = 1 bit 1 不妨设 P(Z=0) = P(Z=1)= 2 设 P(X=0,Y=0|Z=0) = p P(X=1,Y=1|Z=0) = 1 — p 1 ~[ Plogp + (1 — p)log (1 — p)] -[qlogq + (1 — q)log(1 — q)] =11 满足上式的p 、q 可取:p = ; q = 2.1 In 2 x nat IOg 2 bi t P(X=0,Y=1|Z=1) = q P(X=1,Y=0|Z=1) = 1 — q ⑵ Y 的值取自(31,32, 假设输入X 、Y 是相互独立 的,则满足 I(X;Y) = 0 则 H(X|Z)=

信息论第1章

第一章信息的定性描述 第一节对信息的初步认识 一. 信息社会 当今,世界上信息革命的热潮一浪高过一浪。近年来,移动电话、个人电脑和网络用户正以高于摩尔定律的速度迅猛增长。人们都在谈论着信息社会、信息革命和网络时代,信息似乎成了个很时髦的字眼儿。就连中国人平常打招呼的话“你吃饭了吗?”也被有些人改成“你上网了吗?”但这绝不是什么赶时髦,也绝不是什么偶然现象,而是社会发展的必然趋势。因为在信息社会里,人们最关心的是信息问题,而不是吃饭问题。“民以食为天”的信条将会逐渐被“民以信为天”所代替。社会学家和未来学家普遍认为,20世纪末和21世纪初,是信息革命爆发的时期。一些新技术的突破和新产业的出现,使社会生产力发生了新的飞跃,人们的生活也发生了新的变化,人类社会正在进入信息化社会。所谓信息化社会,就是以信息产业为中心,使社会生产、生活和经济都发展起来的社会。在这种社会中, ◆信息成了比物质或能源更为重要的资源, ◆对信息产业成了重要的产业。 ◆从事信息工作者成了主要的劳动者。 ◆信息和知识成了生产力发展的决定因素。 二. 信息的普遍性 其实,信息并不是什么新鲜东西, 信息无时不在,无处不有。 人们生活在信息的海洋里,天天都要通过自己的感觉器官感受各种外界信息。例如,衣食住行,读书看报,听广播,看电视等等。人们要进行社会活动就需要有信息交流。例如,除了书信、电话、电报之外,天天都要同许多人交谈、交往。人们还要进行信息处理和存储。例如,要把观察、接收到的大量事物、数据和资料进行分类、分析、整理和纪录。 不仅如此,信息也是人类自身进化的一个基本条件。恩格斯对于人类的进化过程,曾有过这样一段极其精彩的描述:“……这些猿类,大概是首先由于它们生活方式的影响……渐渐直立行走……手变得自由了……随着手的发展,随着劳动而开始的人对自然的统治,在每一个新的发展中扩大了人的眼界。……另一方面,劳动的发展必然促使社会成员更加紧密地互相结合起来,因为它使互相帮助和共同协作的场合增多了,并且使每个人都清楚地意识到这种共同协作的好处。一句话,这些正在形成中的人,已经到了彼此间有些什么非说不可的地步了。需要产生了自己的器官:猿类不发达的喉头,由于音调的抑扬顿挫的不断加多,缓慢地然而肯定地得到改造,而口部的器官也逐渐学会了发出一个个清晰的音节……首先是劳动,然后是语言和劳动一起,成了两个最主要的推动力,在它们的影响下,猿的脑髓就逐渐地变成人的脑髓……由于随着完全形成的人的出现而产生了新的因素——社会。”在这里,我们看到了一幅清晰的图景,它说明这些正在形成中的人,怎样在与外部的联系中产生了感知信息与利用信息的需要,因而逐渐形成和发展了自己的信息器官:眼、耳、口、脑等等。形成和发展这些器官,形成和发展语言,正是为了从自然界取得信息和利用信息来强化自己,

信息论基础理论与应用考试题及答案.doc

信息论基础理论与应用考试题 一、填空题(每题2分,共20分) 1.信息论研究的ri的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)、(有效性)、保密性和认证性,使信息传输系统达到最优化。(考点:信息论的研究目的) 2.电视屏上约有500X600=3X 1O,个格点,按每点有10个不同的灰度等级考虑, 则可组成IO’加'个不同的画面。按等概计算,平均每个画面可提供的信息量约为(I()6bit/画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为(加性信道)和(乘性信道)。(考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q二32。若r=2, N=l, 即对信源S的逐个符号进行二元编码,则每个英文电报符号至少要用(5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积也。 (考点:纠错码的分类) 7.码C=((0, 0, 0, 0), (0, 1, 0, 1), (0, 1, 1, 0), (0, 0, 1, 1)}是(Gb 2)?线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即 MB | q

(H(X) = E log—— =-£p(%)logP(q))。 P(q)/=i ■ ■ ■ (考点:平均信息量的定义) 9.对于一个(n,k)分组码,其最小距离为d,那么,若能纠正t个随机错误,同时能检测e (eNt)个随机错误,则要求(dNt+e+1 )。 (考点:线性分组码的纠检错能力概念) 10.和离散信道一?样,对于固定的连续信道和波形信道都有一?个最大的信息传输速率,称之为(信道容量)。 (考点:连续信道和波形信道的信道容量) 二、判断题(每题2分,共10分) 1.信源剩余度的大小能很好地反映离散信源输出的符号序列中符号之间依赖关系的强弱,剩余度越大,表示信源的实际嫡越小。(对)(考点:信源剩余度的基本概念) 2.信道的噪声是有色噪声,称此信道为有色噪声信道,一?般有色噪声信道都是无 记忆信道。(错)(考点:有色噪声信道的概念) 3.若一组码中所有码字都不相同,即所有信源符号映射到不同的码符号序列,则 称此码为非奇异码。(对)(考点:非奇异码的基本概念) 4.在一个二元信道的n次无记忆扩展信道中,输入端有2。个符号序列可以作为消息。(对) 5.卷积码的纠错能力随着约束长度的增加而增大,-?般情况下卷积码的纠错能力 劣于分组码。(错)(考点:卷积码的纠错能力) 三、名词解释(每题3分,共12分) 1 .信源编码

信息论第一章

第一章 1-1 信息.消息和信号的定义是什么?三者的关系是什么? 答:定义:信息是事物运动状态或存在方式的不确定性的描述。 用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来就成为消息。 把消息换成适合信道传输的物理量,这种物理量称为信号。 三者的关系:消息包含信息,是信息的载体,但不是物理性的。信号是信息的载体,是物理性的。 1-3 写出信息论的定义(狭义信息论和广义信息论). 答:狭义信息论:信息论是在信息可以度量的基础上有效地和可靠地传递信息的科学,它涉及信息的度量、信息的特性、信息传输速率、信道容量、干扰对信息传输的影响等方面的知识。 广义信息论:信息论包括通信的全部统计问题的研究、香农信息论、信号设计、噪声理论、信号检测与估值等,还包括如医学、生物学、心理学、遗传学、神经生理学、语言学甚至社会学和科学管理学中有关信息的问题。 1-5信息有哪些分类? 答:( 1 )按信息的性质分类:语法信息,语义信息和语用信息; (2)按观察过程分类:实在信息,先验信息和实得信息; (3)按信息的地位分类:客观信息(效果信息、环境信息)和主观信息(决策信息,指令、控制和目标信息); (4)按信息的作用分类:有用信息、无用信息和干扰信息; ( 5)按信息的逻辑意义分类:真实信息、虚假信息和不定信息; (6)按信息的传递方向分类:前馈信息和反馈信息; ( 7)按信息的生成领域分类:宇宙信息、自然信息、思维信息和社会信息;(8)按信息的信息源性质分类:语言信息、图像信息、数据信息、计算信息和文字信息; (9)按信息的信号形成分类:连续信息、离散信息和半连续信息。 09电子2 22 何清林

信息论基础及答案

《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞ -∞?→∞ --??) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x -)时,信源具有最大熵,其值为 0.6155hart(或1.625bit 或1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同 的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

信息论与编码习题1及答案1

一、(11’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信 源的信源熵H(X) 等于2.5,对信源进 行等长的无失真二 进制编码,则编码 长度至少为 3 。 (6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。 (8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于), 则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。 (9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关 二、(9)判断题 (1)信息就是一种消息。() (2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。() (3)概率大的事件自信息量大。() (4)互信息量可正、可负亦可为零。() (5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。 ()

(6) 对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。 ( ) (7) 非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。 ( ) (8) 信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造的是最佳码。 ( ) (9)信息率失真函数R(D)是关于平均失真度D 的上凸函数. ( ) 三、(5)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的, 而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A 表示“大学生”这一事件,B 表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (2分) 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (2分) I(A|B)=-log0.375=1.42bit (1分) 四、(5)证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY) 证明: ()()() () ()()()() ()() Y X H X H y x p y x p x p y x p x p y x p y x p Y X I X X Y j i j i Y i j i X Y i j i j i -=??? ???---==∑∑∑∑∑∑log log log ; (2分) 同理 ()()() X Y H Y H Y X I -=; (1分) 则

信息论基础》试卷(期末A卷

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为1 23x x x X 1 11 P 244?? ?? ?=?? ????? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log (b-a )bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为16w ,其概率密度函数是高斯分布时,差熵的最大值为 1lo g 32e 2 π;与其熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 8、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)。 (2)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础复习提纲

第一章 绪论 1、什么是信息?香农对于信息是如何定义的。 答:信息是事物运动状态或存在方式的不确定性的描述(Information is a measure of one's freedom of choice when one selects a message )。 2、简述通信系统模型的组成及各部分的含义。 答:(1)、信源:信源是产生消息的源。信源产生信息的速率---熵率。 (2)、编码器:编码器是将消息变成适合于信道传送的信号的设 备。包括信源编码器(提高传输效率)、信道编码器(提高传输可靠性)、调制器。 (3)、信道:信道是信息传输和存储的媒介。 (4)、译码器:译码是编码的逆变换,分为信道译码和信源译码。 (5)、信宿:信宿是消息的接收者(人或机器)。 3、简述香农信息论的核心及其特点。 答:(1)、香农信息论的核心:在通信系统中采用适当的编码后能够实现高效率和高可靠性的信息传输,并得出了信源编码定理和信道编码定理。 (2)、特点:①、以概率论、随机过程为基本研究工具。 ②、研究的是通信系统的整个过程,而不是单个环节,并以编、译码器为重点。 ③、关心的是最优系统的性能和怎样达到这个性能(并不具体设计系统)。 ④、要求信源为随机过程,不研究信宿。 第二章 信息的度量 2.1 自信息和互信息 1、自信息(量): (1)、定义:一个事件(消息)本身所包含的信息量,它是由事件的不确定性决定的。某个消息i x 出现的不确定性 的大小定义为自信息,用这个消息出现的概率的对数的负值来表示: ()()() i i i x p x p x I 1 log log =-=

相关文档
最新文档