信息论习题集

合集下载

信息论习题集

信息论习题集

信息论习题集1.有一离散无记忆信源12,31,44s s ??(1)构造出一个即时码,求出信息传输率和编码效率;(2)对其二次扩展信源编码,并求出信息传输率及编码效率,并与(1)的结果相比较。

解:(1)其信源熵为21()()log ()0.75log 0.750.25log 0.250.81127i i i H X P x P x ==-=--=∑比特现利用二进制符号(0,1)进行编码,令s1=0,s2=1,这时平均码长 211(/i i i L p l ===∑码元信源符号)信息传输率为:()0.811(/H S R bit L==码元符号)编码的效率为2()0.811log rH S L η==(2)为了提高传输效率,根据香农第一定理得物理概念,利用霍夫曼编码方法信源中每一个信源符号的码长信息传输率为:()0.811=0.961(/27/32H S R bit L==码元符号)编码的效率为2()0.961log rH S L η==。

结论:二次扩展信源编码复杂一些,但信息传输率和编码效率提高了。

2.设有一离散信道,其信道传递矩阵为0.50.30.20.20.30.50.30.30.4?并设123()0.4,()()0.3P x P x P x ===,分别按最小错误概率准则和最大似然译码准则确定译码规则,并计算相应的平均错误概率。

2*23/16*31/16*327/16/=++(码元两个信源符号)227/32(/2L L ==码元信源符号)3.二元对称信道如图。

1)若32(0),(1)55p p ==,,求;2)求该信道的信道容量和最佳输入分布。

4. 信源空间为试构造二元最佳编码,计算其编码效率。

解:二元码的码字依序为:10,11,010,011,1010,1011,1000,1001(注必须要有编码过程)平均码长,编码效率5.设有一离散信道,其信道矩阵为,求:当,时,求平均互信息信道疑义度解:当,时,有则6.设有一个马尔可夫信源,其状态图如图所示:(1)求平稳状态下各状态极限概率Q(E (i ))。

信息论习题

信息论习题

一、单项选择题1.信息就是 ( C ) A.消息 B.数字、数据、图形C.通信过程中,接受者所不知的知识(即不确定性)D.能量2. 下列关于交互信息量();i j I x y 的陈述中错误的是 (C ) A.();i j I x y 表示在接收端收到j y 后获得的关于i x 的信息量 B.();i j I x y 表示在发送端发送i x 后获得的关于j y 的信息量 C.();0i j I x y ≥D.当i x 和j y 统计独立时();0i j I x y =3. 设X 和Y 是两个信源,则下列关系式中正确的是 (C ) A.()()()H XY H X H X Y =- B.()()()H XY H X H X Y =+ C.()()()H XY H Y H X Y =+D.()()()H XY H Y H X Y =-4. 一个正常的骰子,也就是各面呈现的概率都是16,则“5出现”这件事件的自信息量为 (C ) A.16比特 B.6 比特 C.2log 6比特 D.2log 6-比特 5. 关于预测编码的描述错误的是 ( ) A.通过解除相关性压缩码率 B.通过对差值编码压缩码率 C.通过概率匹配压缩码率 D.不适用于独立信源 6. 设信源1212n n x x x X p p p P ⎛⎫⎛⎫= ⎪⎪⎝⎭⎝⎭,其中:0i p ≥,i ∀,11n i i p ==∑,则下列关于熵()H X 的 描述错误的是 ( D ) A.熵的取值为一个非负数 B.熵表示信源的平均不确定度 C.()log H X n ≤,当且仅当1i p n=,i ∀成立时等号成立 D.熵的取值小于等于信源的平均自信息量7. 算术编码将信源符号序列映射成哪个区间上的小数 ( C )A. [0,1]B. [0,2]C. [1,2] D . [1,3]8. 非奇异码 ( C ) A.唯一可译 B.每个信源符号都有唯一的码字与之对应C.每个码符号序列都有唯一信源符号序列与之对应D.收到完整的码字后可即时译码9. 狭义信息论的创始人是 ( D )A.HartlyB.NquistonD.C.E. Shannon10.单符号离散信源1212n n x x x X p p p P ⎛⎫⎛⎫= ⎪⎪⎝⎭⎝⎭的平均信息量为 (A ) A.1()log()niii H x p p ==-∑B.1()log()niii H x p p ==∑C.11()log()ni i i H x p p ==∑D. 11()log()ni i iH x p p ==∑ 11. 若信源X 中的某一符号出现的概率1i p =,则其()H X = ( B ) A.1B.0C.0.5D.0.712. 当(;)0I X Y =时,()H XY 应为 (B ) A.()()H X H Y =B.()()()H XY H X H Y =+C.(|)(|)H Y X H X Y =D.()()()H XY H X H Y <+13. 离散无记忆信道的概率转移矩阵的行和等于 (C )A.2B.3C.1D.不确定14. 下列关于信息率失真函数()R D 的叙述错误的为 ( )A. ()R D 为关于D 的严格递减函数 B.()R D 为关于D 的严格递增函数 C.()R D 为关于D 的下凸函数 D.当max D D > 时()0R D = 15. 设信源符号集{}123,,X x x x =,每一个符号发生的概率分别为()112p x =,()214p x =, ()314p x =,则信源熵为 ( A ) A.1.5 比特/符号 B.1.5 奈特/符号 C.1.5 哈特/符号 D.1.0比特/符号16. 设信源符号集{}1234,,,X x x x x =,每一个符号发生的概率分别为()1p x ,()2p x ,()3p x ,()4p x ,则信源熵的最大值为( A )A.2 比特/符号B.2 奈特/符号C.2 哈特/符号D.4比特/符号17. 下列关于联合熵()H XY 的陈述中错误的是 ( D ) A.当X 和Y 统计独立时,()()()H XY H X H Y =+ B.()()H XY H X ≥ C.()()H XY H Y ≥D.()()()H XY H X H X Y =+ 18. 设信源1212n n x x x X p p p P ⎛⎫⎛⎫= ⎪⎪⎝⎭⎝⎭,其中:i ∀,0i p ≥,11n i i p ==∑,则下列关于熵()H X 的 描述错误的是 ( D ) A.()0H X ≥ B.()1,0,0,,00H =C.()log H X n ≤,当且仅当1i p n=,i ∀成立时等号成立 D.设另外有一组概率矢量,()n q q q Q ,,,21 =,则 ()1log n i i i H X p q =≥-∑19. 在哈夫曼编码方法中 ( B ) A.概率大的信源符号给长码 B.概率小的信源符号给长码 C.自信息量大的信源符号给短码 D.根据信源的具体情况确定20. 二元离散信源{}0,1,以什么概率发每一个符号提供的平均信息量为最大 ( B )A.{}0.4,0.6B.{}0.5,0.5C.{}0.99,0.01D.{}0.7,0.321. 若某字符离散信道的输入、输出符号集分别为{}12:,,,n X a a a 和{}12:,,,n Y b b b ,则其交互信息量(;)i j I a b 应为 ( A ) A.(|)log()i j i p a b p aB.(|)log()i j i p a b p a -C.1log(|)i j p a bD.log ()i p a -22. 唯一可译码和即时码具有哪种关系 (B ) A.唯一可译码就是即时码 B.即时码是唯一可译码的子集 C.唯一可译码是即时码的子集D.唯一可译码就是即时码与非奇异码之和23. 用哈夫曼码方法得到的码及其平均码长具有如下性质 (C ) A.不是唯一的,且其平均码长不相同 B.是唯一的,且平均码长也一样 C.不是唯一的,但平均码长相同 D.不能确定24. 设二进制对称信道的误传概率为p ,则下列陈述中错误的是 (C ) A.当输入等概分布时达到其信道容量 B.当输出等概分布时达到其信道容量 C.当0p =时,其信道容量为0 D.当12p =时,其信道容量为0 25. 对于离散对称信道,其输入、输出符号集分别为X 和Y ,下列叙述中错误的是(D ) A.当输入等概分布时达到信道容量 B.当输出等概分布时达到信道容量C.对称信道的条件熵()H Y X 与信道输入符号的概率分布无关D.何时达到对称信道的信道容量要根据具体信道具体确定26. 下述叙述错误的是 ( A ) A.非奇异码唯一可译 B.只有分组码才有对应的码表 C.即时码唯一可译 D.非延长码收到完整的码字后可即时译码 27. 哈夫曼编码属于哪一类编码 ( A ) A.统计 B.变换 C.预测 D.非分组 28.设信源{}621,,x x x X =,对信源X 进行二进制编码,根据Kraft 不等式,下列码中不是唯一可译码的是 ( D ) A .000, 001, 010, 011, 100, 101 B. 0, 01, 011, 0111, 01111, 011111 C .0, 10, 110, 1110, 11110, 111110 D. 0, 10, 110, 1110, 1011, 110129.若有一个二元序列为 000011011100000,可写成的游程序列是 ( A ) A.4 2 1 3 5 B.5 3 1 2 4 C.2 2 2 1 3 2 3 D.4 3 3 430. 在信道输出端接收到输出随机变量Y 后,对输入端的随机变量X 尚存在的平均不确定性表示为 ( B )A .()X HB.()Y X H / C .()Y HD.()X Y H /二、简答及名词解释1.名词解释:自信息量、熵、 2.简要描述离散信源熵的极值性 3.名词解释:离散无记忆信源4.写出冗余度的表达式并简述信源冗余度的来源 5. 简要描述平均互信息);(Y X I 的凸状性6.名词解释:对称离散信道试问:①码字中哪些是唯一可译码?②哪些是非延长码(即时码)? ③哪些是奇异码;那些是非奇异码? 8.名词解释:唯一可译码、即时码9.写出香农公式,解释其中各变量的含义 10.简述信源编码的两个基本途径 11. 伴随式 12. 对偶码 13. 试验信道三、计算1. 信源符号X 有6种字母,概率为(0.32, 0.22, 0.18, 0.16, 0.08, 0.04)。

(完整word版)信息论习题集

(完整word版)信息论习题集

信息论习题集第一章、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。

(√)2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。

(√)3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(√)4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。

(√)5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。

(√)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。

(√)7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。

(×)第二章一、判断题1、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。

(√)2、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。

(×)3、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。

(×)4、信源熵是信号符号集合中,所有符号的自信息的算术平均值。

(×)5、信源熵具有极值性,是信源概率分布P的下凸函数,当信源概率分布为等概率分布时取得最大值。

(×)6、离散无记忆信源的N次扩展信源,其熵值为扩展前信源熵值的N倍。

(√)7、互信息的统计平均为平均互信息量,都具有非负性。

(×)8、信源剩余度越大,通信效率越高,抗干扰能力越强。

(×)9、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。

(×)10、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。

(×)11、在信息处理过程中,熵是不会增加的。

(√)12、熵函数是严格上凸的。

(√)13、信道疑义度永远是非负的。

(√)14、对于离散平稳信源,其极限熵等于最小平均符号熵。

信息论与编码习题集

信息论与编码习题集

第2章2.1 信源在何种分布时,熵值最大?又在何种分布时,熵值最小?2.2 平均互信息量(;)I X Y 与信源概率分布()p x 有何关系?与(/)p y x 又是什么关系?2.3 熵是对信源什么物理量的度量?2.4 设信道输入符号集是12{,,,}k x x x L ,则平均每个信道输入符号所能携带的最大信息量为什么?2.5 互信息量(;)i j I a b 有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?2.6 教材习题。

P70,2.19-2.22除外第3章3.1 设信源消息集为{0,1}X =,信宿消息集{0,1}Y =,信源等概率分布,通过二进制信道,信道转移概率矩阵为0.760.240.320.68⎛⎫ ⎪⎝⎭求:(1) 该系统的平均互信息量;(2) 接收到0y =后,所提供的关于x 的平均互信息量(;0)I X 。

3.2 教材 3.1,3.2,3.3,3.6,3.7(4),3.8,3.11,3.14,3.15,3.18,3.19第4章 信息率失真函数4.1 当信息率失真函数R (D )取什么值的时候,表示不允许有任何失真。

4.2 说明信源在不允许失真时,其信息率所能压缩到的极限值时什么?当允许信源存在一定的失真时,其信息率所能压缩到的极限值又是什么?4.3 给定二元信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡25.025.05.0)(321x x x X P X ,失真度测度矩阵[]⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=011302120d ,求信息率失真函数的定义域和值域。

4.4 其他练习题见教材第5章5.1 请问即时码一定是唯一可译码码?反过来说唯一可译码一定是即时码吗?5.2 离散无记忆信源,熵为()H x ,对信源的L 长序列进行等长编码,码长是长为n 的m 进制符号串,问:(1)满足什么条件时,可实现无失真编码;(2)L 增大,编码效率η也随之增大吗?5.3 信源有4个消息,对其进行二进制编码,问:(1)若信源等概率分布⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡4/14/14/14/1)(4321x x x x X P X ,则每个消息至少需要几位二进制代码? (2)若信源概率分布为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡8/18/14/12/1)(4321x x x x X P X ,如何编码才能获得最佳码?5.4 已知一个离散无记忆信源,其概率分布为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡12/14/13/13/1)(4321x x x x X P X ,试: (1)对该信源进行二进制霍夫曼编码;(2)证明存在两个不同的最佳码长集合,即证明码长集合{1,2,3,3}和{2,2,2,2}都是最佳的。

信息论习题一二答案

信息论习题一二答案

信息论习题一、二答案参考1.一个随即变量x的概率密度函数P(x)= x /2,0≤x≤2V,则信源的相对熵为()。

A. 1.44bit/符号B. 1bit/符号正确C. 0.5bit/符号D. 0.72bit/符号2.下列不属于消息的是()A. 文字B. 图像C. 语言D. 信号3.下列哪一项不属于最简单的通信系统模型()A. 信宿B. 加密C. 信道D. 信源4.下列离散信源,熵最大的是()。

A. H(1/2,1/2)B. H(1/2,1/4,1/8,1/8)C. H(1/3,1/3,1/3)D. H(0.9,0.1)5.下面哪一项不属于熵的性质()A. 对称性B. 确定性C. 完备性D. 非负性6.同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为()。

A. -log36bitB. log36bitC. -log (11/36)bitD. log (11/36)bit7.对连续信源的熵的描述不正确的是()。

A. 连续信源的熵和离散集的熵形式一致,只是用概率密度代替概率,用积分代替求和B. 连续信源的熵由相对熵和无穷大项构成C. 连续信源的熵值无限大D. 连续信源的熵可以是任意整数9.相对熵()。

A. 总非负B. 总为正C. 总为负D. 都不对9.英文字母有26个,加上空格共27个符号,由此H0(X)=4.76bit/符号,根据有关研究H∞(X)=1.4 bit/符号,则冗余度为()。

A. 0.71B. 0.51C. 0.11D. 0.3110.设信源S,若P(s1)=1/2、P(s2)=1/4、P(s3)=1/4,则其信源剩余度为()。

A. 3/4B. 0C. 1/4D. 1/211.设有一个无记忆信源发出符号A和B,已知p(A)=1/4,p(B)=3/4,发出二重符号序列消息的信源,则二次扩展信源熵为()。

A. 0.81bit/二重符号B. 1.86 bit/二重符号C. 0.93 bit/二重符号D. 1.62bit/二重符号12.H(X/X)=0。

信息论部分习题及解答

信息论部分习题及解答

2-1 同时掷两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“3和5同时出现” 这事件的自信息量。

(2)“两个1同时出现” 这事件的自信息量。

(3)两个点数的各种组合(无序对)的熵或平均信息量。

(4)两个点数之和(即2,3,…,12构成的子集)的熵。

(5)两个点数中至少有一个是1的自信息。

解:(1)设X 为‘3和5同时出现’这一事件,则P (X )=1/18,因此 17.418log)(log)(22==-=x p X I (比特)(2)设‘两个1同时出现’这一事件为X ,则P (X )=1/36,因此 17.536log)(log)(22==-=x p X I (比特)(3 ) “两个相同点数出现”这一事件的概率为1/36,其他事件的概率为1/18,则 337.418log181536log366)(22=+=X H (比特/组合)(4)222222111111()[log 36log 18()log 12()log 936181836181811136111()log ]2()log 6 3.44(/)1818365181818H X =++++++++⨯+++=比特两个点数之和(5)两个点数至少有一个为1的概率为P (X )= 11/36 71.13611log)(2=-=X I (比特)2-6设有一离散无记忆信源,其概率空间为⎪⎪⎭⎫⎝⎛=====⎪⎪⎭⎫⎝⎛8/134/124/118/304321x x x x PX该信源发出的信息符号序列为(202 120 130 213 001 203 210 110 321 010 021 032 011 223 210),求:(1) 此信息的自信息量是多少?(2) 在此信息中平均每个符号携带的信息量是多少? 解:(1)由无记忆性,可得序列)(比特/18.87)3(6)2(12)1(13)0(14=+++=I I I I(2)符号)(比特/91.145/==I H 2-9在一个袋中放有5个黑球、10个白球,以摸一个球为一次实验,摸出的球不再放进去。

(完整word版)信息论试卷

(完整word版)信息论试卷

一、选择题1、下列那位创立了信息论.(C)A.牛顿B.高斯C.香农D.哈夫曼2、下列不属于消息的是。

(B)A.文字B.信号C.图像D.语言3、同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为2,则得到的自信息量为(B)。

A.-log36 bitB.log36 bitC.-log18 bitD.log18 bit4、下列说法不正确的是(C)A.异字头码肯定是唯一可译的B.逗点码是唯一可译的C.唯一可译码不必满足Kraft 不等式D.无逗点码可以唯一可译5、下述编码中那个可能是任何概率分布对应的Huffman编码(A)A.{0,10,11}B.{00,01,10,110}C.{01,10}D.{001,011,100,101}6、下列物理量不满足非负性的是(D)A.H(X)B.I(X;Y)C.H(Y|X)D.I(x j;y j)7、信源的输出与信道的输入匹配的目的不包括(D)A.符号匹配B.信息匹配C.降低信道剩余度D.功率匹配8、在串联系统中,有效信息量的值(B)A.趋于变大B.趋于变小C.不变D.不确定二、判断题1、信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。

(T)2、信息是先验概率和后验概率的函数,信息量是事件数目的指数函数。

(F)提示:对数函数3、两个事件之间的互信息量可正,可负,也可能为0。

(T)4、在通讯系统中,无论对接收到的信息怎样处理,信息只会减少,绝不可能增加。

(T )5、Huffman 编码是唯一的.(F)提示:不唯一6、概率大的事件自信息量大。

(F )提示:小7、在事件个数相同条件下,事件等概率出现情况下的熵值最大。

(T)8、平稳的离散无记忆信道不可用一维概率描述。

(F)提示:可以三、填空题1、必然事件的自信息是 0 .2、根据码字所含的码元的个数,编码可分为 等长 编码和 不等长 编码。

3、不等长D 元码,码字最长限定为N,则至多有 D(D N - 1)/(D — 1) 个码字。

信息论试题

信息论试题

信息论试题一、选择题1. 信息论的创始人是()。

A. 克劳德·香农B. 艾伦·图灵C. 约翰·冯·诺伊曼D. 阿兰·麦席森2. 下列哪个选项是信息论中信息熵的计算公式?()。

A. H(X) = -ΣP(x)log_2P(x)B. H(X) = ΣP(x)xC. H(X) = 1/ΣP(x)D. H(X) = log_2(1/P(x))3. 在信息论中,互信息用于衡量两个随机变量之间的()。

A. 独立性B. 相关性C. 非线性D. 周期性4. 以下哪个不是信息论的应用领域?()。

A. 通信系统B. 密码学C. 机器学习D. 生物遗传学5. 香农极限是指()。

A. 信息传输的最大速率B. 信息压缩的最小冗余度C. 信道容量的理论上限D. 编码长度的最优解二、填空题1. 信息论中的信息熵是衡量信息的不确定性或________的度量。

2. 互信息表示两个随机变量之间共享的信息量,它是衡量两个变量之间________的指标。

3. 香农在1948年发表的论文《________》奠定了信息论的基础。

4. 在数字通信中,信道容量可以通过公式________来计算。

5. 信息论不仅在通信领域有广泛应用,它还对________、数据分析等产生了深远影响。

三、简答题1. 简述信息论的基本原理及其在现代通信中的作用。

2. 描述香农信息论中的主要概念及其相互之间的关系。

3. 说明信息论如何应用于数据压缩技术,并给出一个实际例子。

4. 讨论信息论对于密码学和信息安全的贡献。

四、论述题1. 论述信息论对于人工智能和机器学习领域的影响及其潜在的应用前景。

2. 分析信息论在生物信息学中的应用,以及如何帮助我们更好地理解生物系统的复杂性。

3. 探讨信息论在社会网络分析中的应用,以及它如何帮助我们理解和预测社会行为模式。

4. 评述信息论在量子通信和量子计算中的潜在作用及其对未来科技发展的意义。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

信息论习题集第一章、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。

(√)2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。

(√)3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(√)4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。

(√)5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。

(√)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。

(√)7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。

(×)第二章一、判断题1、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。

(√)2、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。

(×)3、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。

(×)4、信源熵是信号符号集合中,所有符号的自信息的算术平均值。

(×)5、信源熵具有极值性,是信源概率分布P 的下凸函数,当信源概率分布为等概率分布时取得最大值。

(×)6、离散无记忆信源的N 次扩展信源,其熵值为扩展前信源熵值的N 倍。

(√)7、互信息的统计平均为平均互信息量,都具有非负性。

(×)8、信源剩余度越大,通信效率越高,抗干扰能力越强。

(×)9、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。

(×)10、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。

(×)11、在信息处理过程中,熵是不会增加的。

(√)12、熵函数是严格上凸的。

(√)13、信道疑义度永远是非负的。

(√)14、对于离散平稳信源,其极限熵等于最小平均符号熵。

(√)2-1 同时掷两个正常的骰子,也就是各面呈现的概率都是l/6 ,求:(1) “ 3 和 5 同时出现”事件的自信息量;(2) “两个 1 同时出现”事件的自信息量;(3)两个点数的各种组合(无序对)的熵或平均信息量;(4)两个点数之和 (即 2, 3,, 12 构成的子集)的熵;(5)两个点数中至少有一个是 1 的自信息。

2-2 居住某地区的女孩中有25%是大学生,在女大学生中有75%身高为 1.6m 以上,而女孩中身高 1.6m 以上的占总数一半。

假如得知“身高 1.6m 以上的某女孩是大学生”的消息,问获得多少信息量?、2-3 两个实验和,联合概率为( 1)如果有人告诉你和的实验结果,你得到的平均信息量是多少?( 2)如果有人告诉你的实验结果,你得到的平均信息量是多少?(3)在已知的实验结果的情况下,告诉你的实验结果,你得到的平均信息量是多少?2-4 某一无记忆信源的符号集为,已知,( 1)求信源符号的平均信息量;( 2)由 100 个符号构成的序列,求某一特定序列(例如有。

个 0 和个 1)的信息量的表达( 3)计算( 2)中的序列熵。

2-5 有一个马尔可夫信源,已知转移概率为。

试画出状态转移图,并求出信源熵。

2-6 有一个一阶马尔可夫链各取值于集,已知起始概率为,其转移概率如下:ji12311/21/41/422/301/332/31/30( 1)求的联合熵和平均符号熵;( 2)求这个链的极限平均符号熵;( 3)求和它们对应的冗余度。

2-7 一阶马尔可夫信源的状态如图所示,信源X 的符号集为{0,1,2}。

(1)求平稳后的信源的概率分布;(2)求信源熵;( 3)求当和时信源的熵,并说明其理由。

2-8 设有一信源,它在开始时以的概率发出,如果为时,则为的概率为;如果为时,则为的概率为;如果为时,则为概率为只与有关。

有画出状态转移图,并且计算信源熵,为。

的概率为0。

而且后面发出的概率。

试利用马尔可夫信源的图示法第三章一、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。

(√)2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。

(√)3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(√)4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。

(√)5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。

(√)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。

(√)7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。

(×)8、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。

(√)9、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。

(×)10、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。

(×)11、信源熵是信号符号集合中,所有符号的自信息的算术平均值。

(×)12、信源熵具有极值性,是信源概率分布P 的下凸函数,当信源概率分布为等概率分布时取得最大值。

(×)13、离散无记忆信源的N 次扩展信源,其熵值为扩展前信源熵值的N 倍。

(√)14、互信息的统计平均为平均互信息量,都具有非负性。

(×)15、信源剩余度越大,通信效率越高,抗干扰能力越强。

(×)16、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。

(×)17、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。

(×)18、在信息处理过程中,熵是不会增加的。

(√)19、熵函数是严格上凸的。

(√)20、信道疑义度永远是非负的。

(√)21、对于离散平稳信源,其极限熵等于最小平均符号熵。

(√)22、对于离散无记忆信道,达到信道容量时其输入概率分布是唯一的、特定的。

(√)23、噪声功率相同的加性噪声信道中以高斯噪声信道的信道容量最大。

(×)24、典型序列中,信源符号出现的频率与它的概率接近。

(√)25、为有效抵抗加性高斯噪声干扰,信道输入分布应该是高斯分布。

(√)26、最大似然译码准则是使平均译码错误率最小的准则。

(×)27、加性高斯噪声信道的信道容量不大于相同平均功率的其他加性噪声信道的信道容量。

(√)28、非奇异的定长码是惟一可译码。

(√)29、 AWGN的信道容量的大小与系统的带宽成正比。

(×)30、信源编码可以提高信息传输的有效性。

(√)31、连续信源和离散信源的平均互信息都具有非互性。

(√)32、当信道输入独立等概率时,信道疑义度达到最大值。

(×)33、必然事件和不可能事件的自信息量都是0。

(×)34、事件所包含的信息量是与事件发生的概率成反比的。

(×)二、选择题1 离散信源熵表示信源输出一个消息所给出的( B )。

A 、实际信息量; B、统计平均信息量; C、最大信息量; D、最小信息量;2 平均互信息 I(X,Y) 等于( C )。

A、H(Y) ― H(X/Y) ;B、 H(X) ― H(Y/X)C 、H(Y) ― H(Y/X) ; D、H(XY)― H(X) ;3 设连续信源输出的信号谱宽度为W,平均功率为 N(受限),则连续无噪信道的信道容量为( A )。

A、Wlog(2 π eN);B、2Wlog(2 π eN);C、Wlog(2 π N);D、2Wlog(2 π N);4对于无记忆离散信源 X ,其熵值为 H(X) ,由其生成的扩展信源 X N的熵为 H(X N),H(X) 与 H(X N )之间的关系是( B )。

A 、H(X N)=H(X) ;B、 H(X N )=NH(X) ;N N NC、H(X )= H (X) ;D、H(X )= H(X)/N ;5、关于信源编码和信道编码,下面的说法错误的是( B )A、信源编码是为了减少冗余度,信道编码则是有意增加冗余度;B 、信源编码提高了可靠性,降低了有效性;D、信道编码提高了可靠性,降低了有效性。

6、以下关于离散平稳信源的说法不正确的是( C )A、平稳信源发出的符号序列的概率分布与时间起点无关;D、平稳信源的概率分布特性具有时间推移不变性。

7、将某六进制信源进行二进制编码如下表示,则这些码中是唯一可译码的是( D )符号概率c1c2c3c4c5c6 u1/20000001011u1/4001011010000001 2u31/160100111101101010100 u41/16011011111101100110101 u1/16100011111111010011101105u1/1610101111111111011110011116A 、c c c6B、 c2c3c C、 c1c2c D 、 c1c2c3c136368、关于线性分组码,下列说法正确的是( B )A 、卷积码是线性分组码的一种;B 、最小码距是除全零码外的码的最小重量;C、具有封闭性,码字的组合未必是码字;D、不具有封闭性,码字的组合未必是码字。

9、香农公式是用在哪种信道中( D )A 、二进制离散信道;B 、离散无记忆信道;C、离散输入,连续输出信道;D、波形信道。

10、通信系统的性能指标为(A)A 、有效性可靠性安全性经济性B 、有效性可行性安全性保密性C、保密性可靠性安全性经济性 D 、高效性可行性安全性经济性11、信源存在冗余度的主要原因是( C )A 、信源符符号间的相关性B 、信源符号分布的不均匀性C、信源符号间的相关性及分布的不均匀性 D 、以上都不对12、对于( n, k)线性分组码,设d为最小汉明距离,则以下正确的是( D )minA 、这组码能纠正u 个错误的充分必要条件是等d min=2u+1;B 、具有检测 L 个错误的能力的充要条件是d min =L+1;C、具有纠正 t 个错误,同时可以发现L(L>t)个错误的能力的充分条件是d min=t+L+1;D、以上三个结论都不正确。

三、填空题1、单符号离散信源一般用随机变量描述,而多符号信源一般用随机矢量描述。

2、离散平稳无记忆信源X 的 N 次扩展信源的熵等于离散信源X 的熵的 N 倍。

3、对于一阶马尔可夫信源,其状态空间共有个不同的状态。

4、根据输入输出的信号特点,可将信道分成离散信道、连续信道、半离散或半连续信道。

5、对于离散无记忆信道和信源的N 次扩展,其信道容量=NC6、信道编码论定理是一个理想编码存在性理论,即:信道无失真传递信息的条件是信息传输速率小于信道容量。

相关文档
最新文档