信息论习题集

合集下载

信息论复习习题共32页文档

信息论复习习题共32页文档
信息论复习习题
51、山气日夕佳,飞鸟相与还。 52、木欣欣以向荣,泉涓涓而始流。
53、富贵非吾愿,帝乡不可期。 54、雄发指危冠,猛气冲长缨。 55、土地平旷,屋舍俨然,有良田美 池桑竹 之属, 阡陌交 通,鸡 犬相闻 。

26、要使整个人生都过得舒适、愉快,这是不可能的,因为人类必须具备一种能应付逆境的态度。——卢梭


27、只有把抱怨环境的心情,化为上进的力量,才是成功的保证。——罗曼·罗兰

28、知之者不如好之者,好之者不如乐之者。——孔子

29、勇猛、大胆和坚定的决心能够抵得上武器的精良。——达·芬奇

30、意志是一个强壮的盲人,倚靠在明眼的跛子肩上。——叔本华
谢谢!
32

信息论习题集

信息论习题集

信息论习题集1.有一离散无记忆信源12,31,44s s ??(1)构造出一个即时码,求出信息传输率和编码效率;(2)对其二次扩展信源编码,并求出信息传输率及编码效率,并与(1)的结果相比较。

解:(1)其信源熵为21()()log ()0.75log 0.750.25log 0.250.81127i i i H X P x P x ==-=--=∑比特现利用二进制符号(0,1)进行编码,令s1=0,s2=1,这时平均码长 211(/i i i L p l ===∑码元信源符号)信息传输率为:()0.811(/H S R bit L==码元符号)编码的效率为2()0.811log rH S L η==(2)为了提高传输效率,根据香农第一定理得物理概念,利用霍夫曼编码方法信源中每一个信源符号的码长信息传输率为:()0.811=0.961(/27/32H S R bit L==码元符号)编码的效率为2()0.961log rH S L η==。

结论:二次扩展信源编码复杂一些,但信息传输率和编码效率提高了。

2.设有一离散信道,其信道传递矩阵为0.50.30.20.20.30.50.30.30.4?并设123()0.4,()()0.3P x P x P x ===,分别按最小错误概率准则和最大似然译码准则确定译码规则,并计算相应的平均错误概率。

2*23/16*31/16*327/16/=++(码元两个信源符号)227/32(/2L L ==码元信源符号)3.二元对称信道如图。

1)若32(0),(1)55p p ==,,求;2)求该信道的信道容量和最佳输入分布。

4. 信源空间为试构造二元最佳编码,计算其编码效率。

解:二元码的码字依序为:10,11,010,011,1010,1011,1000,1001(注必须要有编码过程)平均码长,编码效率5.设有一离散信道,其信道矩阵为,求:当,时,求平均互信息信道疑义度解:当,时,有则6.设有一个马尔可夫信源,其状态图如图所示:(1)求平稳状态下各状态极限概率Q(E (i ))。

信息论习题

信息论习题

一、单项选择题1.信息就是 ( C ) A.消息 B.数字、数据、图形C.通信过程中,接受者所不知的知识(即不确定性)D.能量2. 下列关于交互信息量();i j I x y 的陈述中错误的是 (C ) A.();i j I x y 表示在接收端收到j y 后获得的关于i x 的信息量 B.();i j I x y 表示在发送端发送i x 后获得的关于j y 的信息量 C.();0i j I x y ≥D.当i x 和j y 统计独立时();0i j I x y =3. 设X 和Y 是两个信源,则下列关系式中正确的是 (C ) A.()()()H XY H X H X Y =- B.()()()H XY H X H X Y =+ C.()()()H XY H Y H X Y =+D.()()()H XY H Y H X Y =-4. 一个正常的骰子,也就是各面呈现的概率都是16,则“5出现”这件事件的自信息量为 (C ) A.16比特 B.6 比特 C.2log 6比特 D.2log 6-比特 5. 关于预测编码的描述错误的是 ( ) A.通过解除相关性压缩码率 B.通过对差值编码压缩码率 C.通过概率匹配压缩码率 D.不适用于独立信源 6. 设信源1212n n x x x X p p p P ⎛⎫⎛⎫= ⎪⎪⎝⎭⎝⎭,其中:0i p ≥,i ∀,11n i i p ==∑,则下列关于熵()H X 的 描述错误的是 ( D ) A.熵的取值为一个非负数 B.熵表示信源的平均不确定度 C.()log H X n ≤,当且仅当1i p n=,i ∀成立时等号成立 D.熵的取值小于等于信源的平均自信息量7. 算术编码将信源符号序列映射成哪个区间上的小数 ( C )A. [0,1]B. [0,2]C. [1,2] D . [1,3]8. 非奇异码 ( C ) A.唯一可译 B.每个信源符号都有唯一的码字与之对应C.每个码符号序列都有唯一信源符号序列与之对应D.收到完整的码字后可即时译码9. 狭义信息论的创始人是 ( D )A.HartlyB.NquistonD.C.E. Shannon10.单符号离散信源1212n n x x x X p p p P ⎛⎫⎛⎫= ⎪⎪⎝⎭⎝⎭的平均信息量为 (A ) A.1()log()niii H x p p ==-∑B.1()log()niii H x p p ==∑C.11()log()ni i i H x p p ==∑D. 11()log()ni i iH x p p ==∑ 11. 若信源X 中的某一符号出现的概率1i p =,则其()H X = ( B ) A.1B.0C.0.5D.0.712. 当(;)0I X Y =时,()H XY 应为 (B ) A.()()H X H Y =B.()()()H XY H X H Y =+C.(|)(|)H Y X H X Y =D.()()()H XY H X H Y <+13. 离散无记忆信道的概率转移矩阵的行和等于 (C )A.2B.3C.1D.不确定14. 下列关于信息率失真函数()R D 的叙述错误的为 ( )A. ()R D 为关于D 的严格递减函数 B.()R D 为关于D 的严格递增函数 C.()R D 为关于D 的下凸函数 D.当max D D > 时()0R D = 15. 设信源符号集{}123,,X x x x =,每一个符号发生的概率分别为()112p x =,()214p x =, ()314p x =,则信源熵为 ( A ) A.1.5 比特/符号 B.1.5 奈特/符号 C.1.5 哈特/符号 D.1.0比特/符号16. 设信源符号集{}1234,,,X x x x x =,每一个符号发生的概率分别为()1p x ,()2p x ,()3p x ,()4p x ,则信源熵的最大值为( A )A.2 比特/符号B.2 奈特/符号C.2 哈特/符号D.4比特/符号17. 下列关于联合熵()H XY 的陈述中错误的是 ( D ) A.当X 和Y 统计独立时,()()()H XY H X H Y =+ B.()()H XY H X ≥ C.()()H XY H Y ≥D.()()()H XY H X H X Y =+ 18. 设信源1212n n x x x X p p p P ⎛⎫⎛⎫= ⎪⎪⎝⎭⎝⎭,其中:i ∀,0i p ≥,11n i i p ==∑,则下列关于熵()H X 的 描述错误的是 ( D ) A.()0H X ≥ B.()1,0,0,,00H =C.()log H X n ≤,当且仅当1i p n=,i ∀成立时等号成立 D.设另外有一组概率矢量,()n q q q Q ,,,21 =,则 ()1log n i i i H X p q =≥-∑19. 在哈夫曼编码方法中 ( B ) A.概率大的信源符号给长码 B.概率小的信源符号给长码 C.自信息量大的信源符号给短码 D.根据信源的具体情况确定20. 二元离散信源{}0,1,以什么概率发每一个符号提供的平均信息量为最大 ( B )A.{}0.4,0.6B.{}0.5,0.5C.{}0.99,0.01D.{}0.7,0.321. 若某字符离散信道的输入、输出符号集分别为{}12:,,,n X a a a 和{}12:,,,n Y b b b ,则其交互信息量(;)i j I a b 应为 ( A ) A.(|)log()i j i p a b p aB.(|)log()i j i p a b p a -C.1log(|)i j p a bD.log ()i p a -22. 唯一可译码和即时码具有哪种关系 (B ) A.唯一可译码就是即时码 B.即时码是唯一可译码的子集 C.唯一可译码是即时码的子集D.唯一可译码就是即时码与非奇异码之和23. 用哈夫曼码方法得到的码及其平均码长具有如下性质 (C ) A.不是唯一的,且其平均码长不相同 B.是唯一的,且平均码长也一样 C.不是唯一的,但平均码长相同 D.不能确定24. 设二进制对称信道的误传概率为p ,则下列陈述中错误的是 (C ) A.当输入等概分布时达到其信道容量 B.当输出等概分布时达到其信道容量 C.当0p =时,其信道容量为0 D.当12p =时,其信道容量为0 25. 对于离散对称信道,其输入、输出符号集分别为X 和Y ,下列叙述中错误的是(D ) A.当输入等概分布时达到信道容量 B.当输出等概分布时达到信道容量C.对称信道的条件熵()H Y X 与信道输入符号的概率分布无关D.何时达到对称信道的信道容量要根据具体信道具体确定26. 下述叙述错误的是 ( A ) A.非奇异码唯一可译 B.只有分组码才有对应的码表 C.即时码唯一可译 D.非延长码收到完整的码字后可即时译码 27. 哈夫曼编码属于哪一类编码 ( A ) A.统计 B.变换 C.预测 D.非分组 28.设信源{}621,,x x x X =,对信源X 进行二进制编码,根据Kraft 不等式,下列码中不是唯一可译码的是 ( D ) A .000, 001, 010, 011, 100, 101 B. 0, 01, 011, 0111, 01111, 011111 C .0, 10, 110, 1110, 11110, 111110 D. 0, 10, 110, 1110, 1011, 110129.若有一个二元序列为 000011011100000,可写成的游程序列是 ( A ) A.4 2 1 3 5 B.5 3 1 2 4 C.2 2 2 1 3 2 3 D.4 3 3 430. 在信道输出端接收到输出随机变量Y 后,对输入端的随机变量X 尚存在的平均不确定性表示为 ( B )A .()X HB.()Y X H / C .()Y HD.()X Y H /二、简答及名词解释1.名词解释:自信息量、熵、 2.简要描述离散信源熵的极值性 3.名词解释:离散无记忆信源4.写出冗余度的表达式并简述信源冗余度的来源 5. 简要描述平均互信息);(Y X I 的凸状性6.名词解释:对称离散信道试问:①码字中哪些是唯一可译码?②哪些是非延长码(即时码)? ③哪些是奇异码;那些是非奇异码? 8.名词解释:唯一可译码、即时码9.写出香农公式,解释其中各变量的含义 10.简述信源编码的两个基本途径 11. 伴随式 12. 对偶码 13. 试验信道三、计算1. 信源符号X 有6种字母,概率为(0.32, 0.22, 0.18, 0.16, 0.08, 0.04)。

信息论部分习题及解答

信息论部分习题及解答

2-1 同时掷两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“3和5同时出现” 这事件的自信息量。

(2)“两个1同时出现” 这事件的自信息量。

(3)两个点数的各种组合(无序对)的熵或平均信息量。

(4)两个点数之和(即2,3,…,12构成的子集)的熵。

(5)两个点数中至少有一个是1的自信息。

解:(1)设X 为‘3和5同时出现’这一事件,则P (X )=1/18,因此 17.418log)(log)(22==-=x p X I (比特)(2)设‘两个1同时出现’这一事件为X ,则P (X )=1/36,因此 17.536log)(log)(22==-=x p X I (比特)(3 ) “两个相同点数出现”这一事件的概率为1/36,其他事件的概率为1/18,则 337.418log181536log366)(22=+=X H (比特/组合)(4)222222111111()[log 36log 18()log 12()log 936181836181811136111()log ]2()log 6 3.44(/)1818365181818H X =++++++++⨯+++=比特两个点数之和(5)两个点数至少有一个为1的概率为P (X )= 11/36 71.13611log)(2=-=X I (比特)2-6设有一离散无记忆信源,其概率空间为⎪⎪⎭⎫⎝⎛=====⎪⎪⎭⎫⎝⎛8/134/124/118/304321x x x x PX该信源发出的信息符号序列为(202 120 130 213 001 203 210 110 321 010 021 032 011 223 210),求:(1) 此信息的自信息量是多少?(2) 在此信息中平均每个符号携带的信息量是多少? 解:(1)由无记忆性,可得序列)(比特/18.87)3(6)2(12)1(13)0(14=+++=I I I I(2)符号)(比特/91.145/==I H 2-9在一个袋中放有5个黑球、10个白球,以摸一个球为一次实验,摸出的球不再放进去。

信息论与编码习题集

信息论与编码习题集

第2章2.1 信源在何种分布时,熵值最大?又在何种分布时,熵值最小?2.2 平均互信息量(;)I X Y 与信源概率分布()p x 有何关系?与(/)p y x 又是什么关系?2.3 熵是对信源什么物理量的度量?2.4 设信道输入符号集是12{,,,}k x x x L ,则平均每个信道输入符号所能携带的最大信息量为什么?2.5 互信息量(;)i j I a b 有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?2.6 教材习题。

P70,2.19-2.22除外第3章3.1 设信源消息集为{0,1}X =,信宿消息集{0,1}Y =,信源等概率分布,通过二进制信道,信道转移概率矩阵为0.760.240.320.68⎛⎫ ⎪⎝⎭求:(1) 该系统的平均互信息量;(2) 接收到0y =后,所提供的关于x 的平均互信息量(;0)I X 。

3.2 教材 3.1,3.2,3.3,3.6,3.7(4),3.8,3.11,3.14,3.15,3.18,3.19第4章 信息率失真函数4.1 当信息率失真函数R (D )取什么值的时候,表示不允许有任何失真。

4.2 说明信源在不允许失真时,其信息率所能压缩到的极限值时什么?当允许信源存在一定的失真时,其信息率所能压缩到的极限值又是什么?4.3 给定二元信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡25.025.05.0)(321x x x X P X ,失真度测度矩阵[]⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=011302120d ,求信息率失真函数的定义域和值域。

4.4 其他练习题见教材第5章5.1 请问即时码一定是唯一可译码码?反过来说唯一可译码一定是即时码吗?5.2 离散无记忆信源,熵为()H x ,对信源的L 长序列进行等长编码,码长是长为n 的m 进制符号串,问:(1)满足什么条件时,可实现无失真编码;(2)L 增大,编码效率η也随之增大吗?5.3 信源有4个消息,对其进行二进制编码,问:(1)若信源等概率分布⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡4/14/14/14/1)(4321x x x x X P X ,则每个消息至少需要几位二进制代码? (2)若信源概率分布为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡8/18/14/12/1)(4321x x x x X P X ,如何编码才能获得最佳码?5.4 已知一个离散无记忆信源,其概率分布为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡12/14/13/13/1)(4321x x x x X P X ,试: (1)对该信源进行二进制霍夫曼编码;(2)证明存在两个不同的最佳码长集合,即证明码长集合{1,2,3,3}和{2,2,2,2}都是最佳的。

信息论与编码试题集与答案

信息论与编码试题集与答案

一填空题(本题20分,每小题2分)1、平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。

3、最大熵值为。

4、通信系统模型如下:5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。

6、只要,当N足够长时,一定存在一种无失真编码。

7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。

9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

按照信息的地位,可以把信息分成客观信息和主观信息。

人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

信息的可度量性是建立信息论的基础。

统计度量是信息度量最常用的方法。

熵是香农信息论最基本最重要的概念。

事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。

12、自信息量的单位一般有比特、奈特和哈特。

13、必然事件的自信息是 0 。

14、不可能事件的自信息量是∞。

15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。

17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。

18、离散平稳有记忆信源的极限熵,。

19、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。

信息论测试题及答案

信息论测试题及答案

一、设X 、Y 是两个相互统计独立的二元随机变量,其取-1或1的概率相等。

定义另一个二元随机变量Z ,取Z=YX (一般乘积)。

试计算:1.H (Y )、H (Z );2.H (YZ );3.I (X;Y )、I (Y;Z ); 二、如图所示为一个三状态马尔科夫信源的转移概率矩阵1. 绘制状态转移图;2. 求该马尔科夫信源的稳态分布;3. 求极限熵;三、在干扰离散对称信道上传输符号1和0,已知P (0)=1/4,P(1)=3/4,试求:1. 信道转移概率矩阵P2.信道疑义度3.信道容量以及其输入概率分布 四、某信道的转移矩阵⎥⎦⎤⎢⎣⎡=1.006.03.001.03.06.0P ,求信道容量,最佳输入概率分布。

五、求下列各离散信道的容量(其条件概率P(Y/X)如下:)六、求以下各信道矩阵代表的信道的容量答案一、设X 、Y 是两个相互统计独立的二元随机变量,其取-1或1的概率相等。

定义另一个二元随机变量Z ,取Z=YX (一般乘积)。

试计算:1.H (Y )、H (Z );2.H (XY )、H (YZ );3.I (X;Y )、I (Y;Z ); 解:1. 2i 11111H Y P y logP y log log 2222i i =⎡⎤=-+⎢⎥⎣⎦∑()=-()()=1bit/符号 Z=YX 而且X 和Y 相互独立∴ 1(1)(1)(1)PP X P Y P X ⋅=+=-⋅=-(Z =1)=P(Y=1)= 1111122222⨯+⨯= 2(1)(1)(1)P P X P Y P X ⋅=-+=-⋅=(Z =-1)=P(Y=1)= 1111122222⨯+⨯=故H(Z)= i2i1(z )log (z )i P P =-∑=1bit/符号2.从上式可以看出:Y 与X 的联合概率分布为:H(YZ)=H(X)+H(Y)=1+1=2bit/符号 3.X 与Y 相互独立,故H(X|Y)=H(X)=1bit/符号∴I (X;Y )=H(X)-H(X|Y)=1-1=0bit/符号I(Y;Z)=H(Y)-H(Y|Z)=H(Y)-[H(YZ)-H(Z)]=0 bit/符号二、如图所示为一个三状态马尔科夫信源的转移概率矩阵2. 绘制状态转移图; 2. 求该马尔科夫信源的稳态分布;3. 求极限熵;解:1.状态转移图如右图 2.由公式31()()(|)j iji i p E P E P EE ==∑,可得其三个状态的稳态概率为:1123223313123111()()()()22411()()()2211()()()24()()()1P E P E P E P E P E P E P E P E P E P E P E P E P E ⎧=++⎪⎪⎪=+⎪⎨⎪=+⎪⎪⎪++=⎩1233()72()72()7P E P E P E ⎧=⎪⎪⎪⇒=⎨⎪⎪=⎪⎩3.其极限熵:3i i 13112112111H = -|E =0+0+72272274243228=1+1+ 1.5=bit/7777i P H H H H ∞=⨯⨯⨯⨯⨯⨯∑(E )(X )(,,)(,,)(,,)符号三、在干扰离散对称信道上传输符号1和0,已知P (0)=1/4,P(1)=3/4,试求:2. 信道转移概率矩阵P 2.信道疑义度3.信道容量以及其输入概率分布解:1.该转移概率矩阵为 P=0.90.10.10.9⎡⎤⎢⎥⎣⎦2.根据P (XY )=P (Y|X )⋅P (X ),可得联合概率由P (X|Y )=P(X|Y)/P(Y)可得H(X|Y)=-i jiji j(x y )log x |y =0.09+0.12+0.15+0.035=0.4bit/P P∑,()符号 3.该信道是对称信道,其容量为:C=logs-H=log2-H (0.9,0.1)=1-0.469=0.531bit/符号这时,输入符号服从等概率分布,即01 11()22XP X⎡⎤⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦⎣⎦四、某信道的转移矩阵⎥⎦⎤⎢⎣⎡=1.06.03.01.03.06.0P,求信道容量,最佳输入概率分布。

《信息论与编码》习题集

《信息论与编码》习题集

第二章习题:补充题:掷色子,(1)若各面出现概率相同(2)若各面出现概率与点数成正比试求该信源的数学模型 解: (1)根据61()1ii p a ==∑,且16()()p a p a ==,得161()()6p a p a ===,所以信源概率空间为123456111111666666⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦P (2)根据61()1i i p a ==∑,且126(),()2,()6p a k p a k p a k ===,得121k =。

123456123456212121212121⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦P 2-2 由符号集{}0,1组成的二阶马尔可夫链,其转移概率为P(0/00)=0.8,P(0/11)=0.2,P(1/00)=0.2, P(1/11)=0.8,P(0/01)=0.5,P(0/10)=0.5,P(1/01)=0.5,P(1/10)=0.5。

画出状态图,并计算各状态的稳态概率。

解:由二阶马氏链的符号转移概率可得二阶马氏链的状态转移概率为: P(00/00)=0.8 P(10/11)=0.2 P(01/00)=0.2 P(11/11)=0.8 P(10/01)=0.5 P(00/10)=0.5 P(11/01)=0.5 P(01/10)=0.5二进制二阶马氏链的状态集S={,1S 432,,S S S }={00,01,10,11}0.80.20.50.50.50.50.20.8⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦P 状态转移图各状态稳定概率计算:⎪⎪⎩⎪⎪⎨⎧==∑∑==41411i jij i j j WP W W 即 ⎪⎪⎪⎩⎪⎪⎪⎨⎧=++++++=+++=+++=+++=143214443432421414434333232131342432322212124143132121111W W W W P W P W P W P W W P W P W P W P W W P W P W P W P W w P W P W P W P W W0.80.8得:14541==W W 14232==W W 即:P(00)=P(11)=145 P(01)=P(10)=1422-6掷两粒骰子,当其向上的面的小圆点数之和是3时,该消息所包含的信息量是多少?当小圆点数之和是7时,该消息所包含的信息量又是多少? 解:2211111(3)(1)(2)(2)(1)666618(3)log (3)log 18()P P P P P I p ⎧=⋅+⋅=⨯+⨯=⎪⎨⎪=-=⎩比特 226(7)(1)(6)(2)(5)(3)(4)(4)(3)(5)(2)(6)(1)36(7)log (7)log 6()P P P P P P P P P P P P P I p ⎧=⋅+⋅+⋅+⋅+⋅+⋅=⎪⎨⎪=-=⎩比特2-72-7设有一离散无记忆信源,其概率空间为⎥⎥⎦⎤⎢⎢⎣⎡=====⎥⎦⎤⎢⎣⎡81,41,41,833,2,1,04321x x x x P X该信源发出的消息符号序列为(202 120 130 213 001 203 210 110 321 010 021 032 011 223 210),求此消息的自信息量是多少及平均每个符号携带的信息量?解:消息序列中,“0”个数为1n =14,“1”个数为2n =13,“2”个数为3n =12,“3”个数为4n =6. 消息序列总长为N =1n +2n +3n +4n =45(个符号)(1) 消息序列的自信息量: =I ∑==41)(i iix I n -)(log 412i i ix p n∑== 比特81.87)3(log 6)2(log 12)1(log 13)0(log 142222=----p p p p(2) 平均每个符号携带的信息量为:)/(95.14571.87符号比特==N I 2-14 在一个二进制信道中,信息源消息集X={0,1},且P(1)=P(0),信宿的消息集Y={0,1},信道传输概率P (1/0)=1/4,P (0/1)=1/8。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

信息论习题集第一章、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。

(√)2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。

(√)3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(√)4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。

(√)5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。

(√)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。

(√)7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。

(×)第二章一、判断题1、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。

(√)2、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。

(×)3、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。

(×)4、信源熵是信号符号集合中,所有符号的自信息的算术平均值。

(×)5、信源熵具有极值性,是信源概率分布P的下凸函数,当信源概率分布为等概率分布时取得最大值。

(×)6、离散无记忆信源的N次扩展信源,其熵值为扩展前信源熵值的N倍。

(√)7、互信息的统计平均为平均互信息量,都具有非负性。

(×)8、信源剩余度越大,通信效率越高,抗干扰能力越强。

(×)9、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。

(×)10、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。

(×)11、在信息处理过程中,熵是不会增加的。

(√)12、熵函数是严格上凸的。

(√)13、信道疑义度永远是非负的。

(√)14、对于离散平稳信源,其极限熵等于最小平均符号熵。

(√)2-1 同时掷两个正常的骰子,也就是各面呈现的概率都是l/6,求:(1) “3和5同时出现”事件的自信息量;(2)“两个1同时出现”事件的自信息量;(3)两个点数的各种组合(无序对)的熵或平均信息量;(4) 两个点数之和(即 2,3,…,12构成的子集)的熵;(5)两个点数中至少有一个是1的自信息。

2-2 居住某地区的女孩中有25%是大学生,在女大学生中有75%身高为1.6m以上,而女孩中身高1.6m以上的占总数一半。

假如得知“身高1.6m以上的某女孩是大学生”的消息,问获得多少信息量?、2-3两个实验和,联合概率为(1)如果有人告诉你和的实验结果,你得到的平均信息量是多少?(2)如果有人告诉你的实验结果,你得到的平均信息量是多少?(3)在已知的实验结果的情况下,告诉你的实验结果,你得到的平均信息量是多少?2-4某一无记忆信源的符号集为,已知,。

(1)求信源符号的平均信息量;(2)由100个符号构成的序列,求某一特定序列(例如有个0和个1)的信息量的表达(3)计算(2)中的序列熵。

2-5 有一个马尔可夫信源,已知转移概率为。

试画出状态转移图,并求出信源熵。

2-6有一个一阶马尔可夫链各取值于集,已知起始概率为,其转移概率如下:(1)求的联合熵和平均符号熵;(2)求这个链的极限平均符号熵;(3)求和它们对应的冗余度。

2-7 一阶马尔可夫信源的状态如图所示,信源X的符号集为{0,1,2}。

(1)求平稳后的信源的概率分布;(2)求信源熵;(3)求当和时信源的熵,并说明其理由。

2-8设有一信源,它在开始时以的概率发出,如果为时,则为的概率为;如果为时,则为的概率为;如果为时,则为概率为,为的概率为0。

而且后面发出的概率只与有关。

有。

试利用马尔可夫信源的图示法画出状态转移图,并且计算信源熵。

第三章一、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。

(√)2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。

(√)3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(√)4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。

(√)5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。

(√)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。

(√)7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。

(×)8、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。

(√)9、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。

(×)10、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。

(×)11、信源熵是信号符号集合中,所有符号的自信息的算术平均值。

(×)12、信源熵具有极值性,是信源概率分布P的下凸函数,当信源概率分布为等概率分布时取得最大值。

(×)13、离散无记忆信源的N次扩展信源,其熵值为扩展前信源熵值的N倍。

(√)14、互信息的统计平均为平均互信息量,都具有非负性。

(×)15、信源剩余度越大,通信效率越高,抗干扰能力越强。

(×)16、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。

(×)17、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。

(×)18、在信息处理过程中,熵是不会增加的。

(√)19、熵函数是严格上凸的。

(√)20、信道疑义度永远是非负的。

(√)21、对于离散平稳信源,其极限熵等于最小平均符号熵。

(√)22、对于离散无记忆信道,达到信道容量时其输入概率分布是唯一的、特定的。

(√)23、噪声功率相同的加性噪声信道中以高斯噪声信道的信道容量最大。

(×)24、典型序列中,信源符号出现的频率与它的概率接近。

(√)25、为有效抵抗加性高斯噪声干扰,信道输入分布应该是高斯分布。

(√)26、最大似然译码准则是使平均译码错误率最小的准则。

(×)27、加性高斯噪声信道的信道容量不大于相同平均功率的其他加性噪声信道的信道容量。

(√)28、非奇异的定长码是惟一可译码。

(√)29、AWGN的信道容量的大小与系统的带宽成正比。

(×)30、信源编码可以提高信息传输的有效性。

(√)31、连续信源和离散信源的平均互信息都具有非互性。

(√)32、当信道输入独立等概率时,信道疑义度达到最大值。

(×)33、必然事件和不可能事件的自信息量都是0。

(×)34、事件所包含的信息量是与事件发生的概率成反比的。

(×)二、选择题1 离散信源熵表示信源输出一个消息所给出的( B )。

A、实际信息量;B、统计平均信息量;C、最大信息量;D、最小信息量;2 平均互信息I(X,Y)等于( C )。

A 、H(Y)―H(X/Y); B、H(X)―H(Y/X)C 、H(Y)―H(Y/X); D、H(XY)―H(X);3 设连续信源输出的信号谱宽度为W,平均功率为N(受限),则连续无噪信道的信道容量为( A )。

A、Wlog(2πeN);B、2Wlog(2πeN);C、Wlog(2πN);D、2Wlog(2πN);4 对于无记忆离散信源X,其熵值为H(X),由其生成的扩展信源X N的熵为H(X N),H(X)与H(X N)之间的关系是( B )。

A、H(X N)=H(X);B、H(X N)=NH(X);C、H(X N)= H N(X);D、H(X N)= H(X)/N;5、关于信源编码和信道编码,下面的说法错误的是( B )A、信源编码是为了减少冗余度,信道编码则是有意增加冗余度;B、信源编码提高了可靠性,降低了有效性;C、首先对信源编码,到了信道的输入端再对其进行信道编码;D、信道编码提高了可靠性,降低了有效性。

6、以下关于离散平稳信源的说法不正确的是( C )A、平稳信源发出的符号序列的概率分布与时间起点无关;B、平均符号熵随信源关联长度L的增加而减小;C、对于平稳信源,一般情况下,齐次包括平稳,平稳不包括齐次;D、平稳信源的概率分布特性具有时间推移不变性。

7、将某六进制信源进行二进制编码如下表示,则这些码中是唯一可译码的是( D )A、c1 c3 c6B、 c2 c3 c6C、 c1 c2 c3D、c1 c2 c3 c68、关于线性分组码,下列说法正确的是( B )A、卷积码是线性分组码的一种;B、最小码距是除全零码外的码的最小重量;C、具有封闭性,码字的组合未必是码字;D、不具有封闭性,码字的组合未必是码字。

9、香农公式是用在哪种信道中( D )A、二进制离散信道;B、离散无记忆信道;C、离散输入,连续输出信道;D、波形信道。

10、通信系统的性能指标为( A )A、有效性可靠性安全性经济性B、有效性可行性安全性保密性C、保密性可靠性安全性经济性D、高效性可行性安全性经济性11、信源存在冗余度的主要原因是( C )A、信源符符号间的相关性B、信源符号分布的不均匀性C、信源符号间的相关性及分布的不均匀性D、以上都不对12、对于(n,k)线性分组码,设d min为最小汉明距离,则以下正确的是( D )A、这组码能纠正u个错误的充分必要条件是等d min=2u+1;B、具有检测L个错误的能力的充要条件是d min=L+1;C、具有纠正t个错误,同时可以发现L(L>t)个错误的能力的充分条件是d min=t+L+1;D、以上三个结论都不正确。

三、填空题1、单符号离散信源一般用随机变量描述,而多符号信源一般用随机矢量描述。

2、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。

3、对于一阶马尔可夫信源,其状态空间共有个不同的状态。

4、根据输入输出的信号特点,可将信道分成离散信道、连续信道、半离散或半连续信道。

5、对于离散无记忆信道和信源的N次扩展,其信道容量= NC6、信道编码论定理是一个理想编码存在性理论,即:信道无失真传递信息的条件是信息传输速率小于信道容量。

7、信源编码的目的是提高通信的有效性。

8、对于香农编码、费诺编码和霍夫曼编码,编码方法唯一的是香农编码。

9、在多符号的消息序列中,大量重复出现的,只起暂时作用的符号称为冗余位。

10、若纠错码的最小距离为d,则可以纠错任意小于等于个差错。

11、线性分组码是同时具有分组特性和线性特性的纠错码。

12、平均功率为P的高斯分布的连续信源,其信源熵为13、当连续信源和连续信道都是无记忆时,则14、信源编码与信道编码之间的最大区别是,信源编码需减少信源的剩余度,而信道编码需增加信源的剩余度。

相关文档
最新文档