信息论与编码技术复习题3-4

合集下载

信息论与编码理论-第3章信道容量-习题解答

信息论与编码理论-第3章信道容量-习题解答

信息论与编码理论-第3章信道容量-习题解答-071102(总11页)--本页仅作为文档封面,使用时请直接删除即可----内页可以根据需求调整合适字体及大小--第3章 信道容量习题解答3-1 设二进制对称信道的转移概率矩阵为2/31/31/32/3⎡⎤⎢⎥⎣⎦解: (1) 若12()3/4,()1/4P a P a ==,求(),(),(|),(|)H X H Y H X Y H Y X 和(;)I X Y 。

i i 2i=13311H(X)=p(a )log p(a )log()log()0.8113(/)4444bit -=-⨯-=∑符号111121*********j j j=132117p(b )=p(a )p(b |a )+p(a )p(b |a )=43431231125p(b )=p(a )p(b |a )+p(a )p(b |a )=4343127755H(Y)=p(b )log(b )=log()log()0.9799(/)12121212bit ⨯+⨯=⨯+⨯=---=∑符号22i j j i j i j i ,H(Y|X)=p(a ,b )logp(b |a )p(b |a )logp(b |a )2211log()log()0.9183(/)3333i jjbit -=-=-⨯-⨯=∑∑符号I(X;Y)=H(Y)H(Y|X)=0.97990.91830.0616(/)bit --=符号 H(X|Y)=H(X)I(X;Y)=0.81130.06160.7497(/bit --=符号)(2)求该信道的信道容量及其达到信道容量时的输入概率分布。

二进制对称信息的信道容量H(P)=-plog(p)-(1-p)log(1-p)1122C =1-H(P)=1+log()+log()=0.0817(bit/)3333符 BSC 信道达到信道容量时,输入为等概率分布,即:{,} 注意单位3-2 求下列三个信道的信道容量及其最佳的输入概率分布。

信息论与编码题库及答案

信息论与编码题库及答案

信息论与编码题库及答案信息论是一门关于信息传输和处理的学科,主要研究信息的传输、存储与处理,以及在信息传输过程中可能产生的各种噪声和干扰。

信息论在近年来得到了广泛的应用,尤其在计算机科学、通信工程、数据处理以及加密技术等领域中得到了广泛应用。

作为信息处理学科的一个分支,编码学是信息论中重要的研究领域之一,主要研究在信息传输的过程中如何将信息进行编码,并在保证高可靠性的同时减少信息传输的开销。

现代编码学研究所涉及到的内容非常广泛,包括错误检测、纠正编码、信息压缩以及密码学等领域。

为了帮助广大信息与通信工程学习者更好地掌握编码理论及其应用,以下总结了一些编码学的题库及答案,供大家参考。

一、错误检测编码1. 什么是奇偶校验码?答:奇偶校验码是一种简单的错误检测编码方式,它采用了消息的一位奇偶性作为编码方式。

具体而言,对于一组位数固定的二进制数,在其中加入一个附加位,使得这组数的位数为偶数。

然后将这些二进制数按照某种规则排列,例如相邻的两位组成一组,计算每组中1的个数。

如果某组中1的个数是偶数,则附加位赋值为0,否则为1。

这样,如果在传输的过程中数据出现了单一位的错误,则会被检测出来。

2. 什么是海明编码?答:海明编码是一种通过添加校验位来实现错误检测和纠正的编码方式。

在海明编码中,校验位的数目为2的k次幂个,其中k 表示数据位中最大1的位置数。

具体而言,将原始信息看作一组二进制数,再将这些数按照某种规则排列,然后按照一定的算法计算出每个校验位的值,并将这些值添加到原始信息中。

在传输的过程中,如果发现了错误的位,则可以通过一系列错误检测和纠正的操作来确定和修复出错的信息位。

二、信息压缩编码1. 什么是霍夫曼编码?答:霍夫曼编码是一种基于无损数据压缩的编码方式,它的特点是可以将原始信息中出现最频繁的字符用最短的二进制码来表示,同时将出现次数较少的字符用较长的二进制码来表示。

具体来说,霍夫曼编码首先对原始信息中的字符进行统计,确定每个字符出现的频率。

《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是什么?2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。

信息论与编码考试题(附答案版)

信息论与编码考试题(附答案版)

1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。

3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln(2 ⅇ 2))。

4.数据处理过程中信息具有(不增性)。

5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。

6.单符号连续信道的信道容量取决于(信噪比)。

7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。

8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。

9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。

10.立即码指的是(接收端收到一个完整的码字后可立即译码)。

11.算术编码是(非)分组码。

12.游程编码是(无)失真信源编码。

13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。

14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。

15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。

16.卷积码的自由距离决定了其(检错和纠错能力)。

(对)1、信息是指各个事物运动的状态及状态变化的方式。

(对)2、信息就是信息,既不是物质也不是能量。

(错)3、马尔可夫信源是离散无记忆信源。

(错)4、不可约的马尔可夫链一定是遍历的。

(对)5、单符号连续信源的绝对熵为无穷大。

(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。

(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。

信息论与编码复习题

信息论与编码复习题

一、填空题(共10小题,每题1分)1.即时码又称为(非延长码),有时叫做(异前缀码)。

d)。

2.码的纠检错能力取决于码字的(最小距离min3.如果信源为X,信宿为Y,那么信道疑义度为(),噪声熵为()。

4.把信息组原封不动地搬到码字前k位的(n,k)码就叫做(系统码)。

5.循环码的任何一个码字的循环移位仍是码字,因此用一个基底就足以表示循环码的特征。

所以描述循环码的常用数学工具是(码多项式)。

6.香农于1948年发表了(通信的数学理论),这是一篇关于现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。

7.冗余度来自两个方面,一是(信源符号之间的相关性),二是(信源符号分布的不均匀性)。

8.差错控制的途径是:(增大信道容量C),(减小码率R),(增加码长N)。

9.信源编码的主要任务是(减少冗余,提高编码效率)。

10.汉明码是能纠正1个随机错误码元的完备码,它的码长n与监督位长度m(=n-k)之间的关系式为( )。

11.信道编码的主要目标是(提高信息传送的可靠性)。

12.信源可分为两大类,及()信源和()信源。

13.唯一可译码又分为()码和()码。

14.游程编码的码字通常由()和()组合而成。

15.从系统的角度,运用纠/检错码进行差错控制的基本方式有()、()和()。

16.常用的译码方法有()译码和()译码。

二、判断题(共10小题,每题1分)1.由于构成同一线性分组码空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集。

2.可以用生成多项式来描述任何线性分组码。

3.只要传信率R大于信道容量C,总存在一种信道码及解码器,可以以所要求的任意小的差错概率实现可靠通信。

4.码字长度i k符合克劳夫特不等式,是唯一可译码存在的充分必要条件。

5.对于m阶马尔科夫信源来说,在某一时刻出现的符号,取决于前面已出现的m个符号。

6.根据熵的可加性,序列的熵等于组成序列的各符号熵之和。

7.哈夫曼码在编码时充分考虑了信源符号分布的不均匀性和符号之间的相关性。

信息论与编码理论-第3章信道容量-习题解答-071102

信息论与编码理论-第3章信道容量-习题解答-071102

第3章 信道容量习题解答3-1 设二进制对称信道的转移概率矩阵为2/31/31/32/3⎡⎤⎢⎥⎣⎦解: (1) 若12()3/4,()1/4P a P a ==,求(),(),(|),(|)H X H Y H X Y H Y X 和(;)I X Y 。

i i 2i=13311H(X)=p(a )log p(a )log()log()0.8113(/)4444bit -=-⨯-=∑符号111121*********j j j=132117p(b )=p(a )p(b |a )+p(a )p(b |a )=43431231125p(b )=p(a )p(b |a )+p(a )p(b |a )=4343127755H(Y)=p(b )log(b )=log()log()0.9799(/)12121212bit ⨯+⨯=⨯+⨯=---=∑符号 22i j j i j i j i ,H(Y|X)=p(a ,b )logp(b |a )p(b |a )logp(b |a )2211log()log()0.9183(/)3333i jjbit -=-=-⨯-⨯=∑∑符号I(X;Y)=H(Y)H(Y|X)=0.97990.91830.0616(/)bit --=符号 H(X|Y)=H(X)I(X;Y)=0.81130.06160.7497(/bit --=符号)(2)求该信道的信道容量及其达到信道容量时的输入概率分布。

二进制对称信息的信道容量H(P)=-plog(p)-(1-p)log(1-p)1122C =1-H(P)=1+log()+log()=0.0817(bit/)3333符 BSC 信道达到信道容量时,输入为等概率分布,即:{,}注意单位3-4 设BSC 信道的转移概率矩阵为112211Q εεεε-⎡⎤=⎢⎥-⎣⎦1)写出信息熵()H Y 和条件熵(|)H Y X 的关于1()H ε和2()H ε表达式,其中()log (1)log(1)H εεεεε=----。

信息论与编码学考试试题

信息论与编码学考试试题

信息论与编码学考试试题1. 信息的概念信息:是指各个事物运动的状态及状态变化的方式。

(具有不确定性,任何已经确定的事物都不含有信息)2. 相对熵的概念及计算连续信源可以假设是一个不可数的无限多个幅度值的信源,需要无限多个二进制数来表示,因此它的熵为无穷大。

连续信源的熵具有相对性,有时也叫相对熵。

连续信源熵(相对熵):Hc(X)=x p x P X X )(log )(?∞∞--3. 信源熵的概念及计算信源中各个符号不确定度的数学期望叫做信源熵H(X)=E[I(X)]= )(log )()()(21i i ni i i i x p x p x I x p ∑∑=-= 单位:比特/符号其中:0≤ )p(x i ≤1,当信源中只含一个符号x 时,必定有)p(x i =1.4. 分组码将信源消息分成若干组,即符号序列X i ,X i =(X 1,X 2 (X)l ...X L ),序列中的每个符号取自于符号集A,X l ∈{a 1,a 2,...,a i ,...,a n }.而每个符号序列X i 依照固定的码表映射成一个码字Y i ,这样的码称为分组码,也叫快码。

只有分组码才有对应的码表,而非分组码中不存在。

5. 唯一可译码任意有限长的码元序列,只能被唯一的分割成一个个的码字,便称为唯一可译码。

唯一可译码分为:非即时码和即时码6. 唯一可译码存在的充分必要条件的概念及应用用树的概念可导出唯一可译码存在的充分必要条件,即各码字的长度Ki 应符合克劳夫特不等式:∑=-n K i m1i ≤1 (m 是进制数,n 是信源符号数)7. 疑义度的概念及计算条件熵H(X/Y)可以看做是信道上的干扰和噪声所造成的对信源符号x 的不确定度,故又称为疑义度或损失熵。

H(X/Y)=E[I(x i /y i )]= )/()(j ,i i i ii y x I y x p ∑ =)/(log )(-j,i i i i i y x p y x p ∑ 散布度或噪声熵H(Y/X)=E[I(y i /x i )]= )/y ()(j ,i i i ii x I y x p ∑ =)/y (log )(-j,i i i i i x p y x p ∑8. 恒重码的概念如果码集的所有码字都具有相同的重量,这种码就叫做恒重码9. 平均自信息量的概念及计算平均自信息量是消除信源不确定度时所需要的信息的量度,即收到一个信源符号,全部解除了这个符号的不确定度。

信息论与编码技术练习题

信息论与编码技术练习题

一、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。

(√)2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。

(√)3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(√)4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。

(√)5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。

(√)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。

(√)7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。

(×)8、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。

(√)9、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。

(×)10、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。

(×)11、信源熵是信号符号集合中,所有符号的自信息的算术平均值。

(×)12、信源熵具有极值性,是信源概率分布P的下凸函数,当信源概率分布为等概率分布时取得最大值。

(×)13、离散无记忆信源的N次扩展信源,其熵值为扩展前信源熵值的N倍。

(√)14、互信息的统计平均为平均互信息量,都具有非负性。

(×)15、信源剩余度越大,通信效率越高,抗干扰能力越强。

(×)16、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。

(×)17、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。

(×)18、在信息处理过程中,熵是不会增加的。

(√)19、熵函数是严格上凸的。

(√)20、信道疑义度永远是非负的。

(√)21、对于离散平稳信源,其极限熵等于最小平均符号熵。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

《信息论与编码技术》复习题(3)
一、填空题(共20分,每空2分)
1. ___________________________________ 信息的基本概念在于它的。

2. 一个随机事件的___________ 定义为其出现概率对数的负值。

3. 按树图法构成的码一定满足____________ 的定义。

4. _______________________ 称为香农第二极限定理。

5. 纠错码的检、纠错能力是指___________________________________________________ 。

6. 信息率失真函数R(D)是关于D的严格单调___________ 函数。

7. 如果转移概率矩阵P的每一行 ________________________ ,称该矩阵是输入对称的。

8. 加密编码的主要目的是____________________________________ 。

9. 若最小码距为d min的码同时能检测e d个错误、纠正e c个错误,则三个量之间的关系
为_____________________________ 。

10. 稳定的马尔可夫信源必须有不可约性和_________________________________ 。

二、选择题(共10分,每题2分)
1. 给定为条件下,随机事件y j所包含的不确定度和条件自信息量l(y j|X i),
(a)数量上不等,单位不同;(b)数量上不等,单位相同;
(c)数量上相等,单位不同;(d)数量上相等,单位相同。

2. 下面哪一项不属于熵的性质:
(a )非负性;(b )完备性;(c)对称性;(d )确定性。

3. 下面哪一项不是增加信道容量的途径:
(a)减小信道噪声功率;(b )增大信号功率;(c)增加码长;(d)增加带宽。

4. 香农编码方法是根据_______ 推导出来的。

(a)香农第一极限定理;(b)香农第二极限定理;
(c)香农第三极限定理;(d)香农第四极限定理。

5. 下面哪一项不属于最简单的通信系统模型:
(a)信源;(b)加密;(c)信道;(d)信宿。

三、名词解释(共10分,每题5分)
1. 唯一可译码。

2. 最小码距。

四、简答题(共20分,每10分)
1. 利用公式介绍无条件熵、条件熵、联合熵和平均互信息量之间的关系。

2. 简单介绍霍夫曼编码的步骤。

五、计算题(共40 分)(Iog2(3) =,log2(5)=)
1. 某信源含有三个消息,概率分别为P(0)=, P(1)=,P(2)=,失真矩阵为 4 2 1。


D max、
D 0 3 2
2 0 1
D min 和R(D max)。

(10 分)
2. 设对称离散信道矩阵为P1/3 1/3 1/6 1/6,求信道容量G(10分)
1/6 1/6 1/3 1/3
3. 有一稳态马尔可夫信源,已知转移概率为p(S1/S1)=2/3, p(S1/S2)=1。

求:
(1)画出状态转移图和状态转移概率矩阵;(2)求出各状态的稳态概率;
(3)求出信源的极限熵。

(20分)
信息论与编码技术》复习题( 4)
1. ( 5 分)简述信源编码、信道编码和保密编码三种编码的联系。

2. (10 分)已知一离散无记忆信源
u 1 u 2 u 3 u 4 u 5 u 6 u 7 u 8
0.2 0.15 0.15 0.1 0.1 0.1 0.1 0.1
译码。

4. (10分)下面以码字集合的形式给出 5 种不同的编码,第一个码的码符号集合为 {x, y, z},
其它 4 个码都是二进制: (1){xx, xz, y, zz, xyz ;} (2){000, 10, 00, 11}; (3){100, 101, 0, 11};
(4){01, 100, 011,00,111,1010, 1011, 1101} ;
(5){01, 111, 011, 00, 010, 110}。

对于上面列出的 5 种编码,分别回答下述问题: (a )此码的码长分布是否满足 Kraft-McMilian 不等式 b )此码是否是即时码如果不是,请给出反例。

(c )此码是否唯一可译如果不是,请给出反例。

(1) 当信源X 的概率分布为p (a i )=2/3,p (a 2)=p (a 3)=1/6时,按最大后验概率准则选择译码函 数,并计算其平均错误译码概率 p e 。

(2) 当信源是等概信源时,按最大似然译码准则选择译码函数,并计算其平均错误译码概 率 p e 。

3
6. ( 10 分)已知 (7, 4)循环码的生成多项式 g (x ) x x 1,若已知接收码的最高位码元 发生错误,求其伴随多项式;若已知接收码字为 0111000,求发送码字。

7. (10分)设(3, 1, 2)卷积码的生成子矩阵 g 1=[1 1 1], g 2=[0 1 0], g 3=[0 0 1]。

(1) 求卷积码的生成矩阵 Gw
(2) 若输入信息序列 U=[1 0 1 1 0 1 0 1 0 0...]时,求卷积码的输出码字序列。

8. ( 5 分)什么是对称密码体制和非对称密码体制各有何优缺点
9. (30 分)网络信息论研究的主要问题是什么目前的研究热点主要之中在哪几个问题上它 们与历史上相关的研究成果有哪些不同采用的模型和分析技术是什么
u p
(u 试利用三元码编成霍夫曼码, 哪种编码实用性更好。

用两种方法使得它们有相同的最小码长但方差不相同,
并说明
3. (10 分)已知二元信源 u p (u
01
1/8 7/8
,试对序列进行算术编码,并对结果进行
5. (10 分)设有一个离散信道,其信道矩阵为
a 1
b 1
b 2
b 3
1/2 1/4 1/4 a 2 1/4
1/2 1/4 a 3
1/4
1/4 1/2。

相关文档
最新文档