信息论与编码试题集与复习资料新

合集下载

信息论与编码试题集

信息论与编码试题集

信息论与编码试题集题目一:1. 请解释以下术语的含义:a) 信源熵b) 信源编码c) 香农定理d) 奈奎斯特准则e) 奇偶校验码2. 在一个二进制对称信道中,如果发送方发送的比特为0,接收方接收到的比特也为0的概率为0.9,发送方发送的比特为1,接收方接收到的比特也为1的概率为0.8。

请计算该信道的信道容量。

题目二:1. 在一个具有4个等概率输出符号的信源中,计算该信源的熵。

2. 一个典型的英文字母出现的概率如下:P(A) = 0.4, P(B) = 0.3, P(C) = 0.2, P(D) = 0.1。

请计算该信源的平均码长以及编码效率。

题目三:1. 请解释Huffman编码的原理及步骤。

2. 使用Huffman编码对以下信源的输出编码:A: 0.3,B: 0.2,C: 0.15,D: 0.1,E: 0.1,F: 0.05,G: 0.05,H: 0.05。

计算编码的平均码长和编码效率。

题目四:1. 请解释线性分组码和卷积码的区别。

2. 针对一个二进制码串11001011,使用以下生成矩阵计算该码串的卷积码:G = [1 1 0 1; 1 0 1 0]。

给出计算过程和最终编码结果。

题目五:1. 请解释码激励方法。

2. 针对一个码激励线性分组码,当收到的码字为101010时,给出该码字的输入和输出码字。

题目六:1. 请解释BCH编码的原理及应用场景。

2. 对一个BCH(n, k)码,当n=15,k=11时,请给出该BCH码的生成矩阵。

题目七:1. 请解释LDPC码以及LDPC码的译码方法。

2. 对于一个n=7,k=4的LDPC码,给出该LDPC码的校验矩阵。

题目八:1. 请比较分组密码与流密码的特点和应用场景。

2. 使用RC4流密码算法对明文"HELLO"进行加密,已知初始密钥为"KEY",给出加密后的密文。

题目九:1. 请解释区块密码与流密码的工作原理和区别。

信息论与编码题库及答案

信息论与编码题库及答案

信息论与编码题库及答案信息论是一门关于信息传输和处理的学科,主要研究信息的传输、存储与处理,以及在信息传输过程中可能产生的各种噪声和干扰。

信息论在近年来得到了广泛的应用,尤其在计算机科学、通信工程、数据处理以及加密技术等领域中得到了广泛应用。

作为信息处理学科的一个分支,编码学是信息论中重要的研究领域之一,主要研究在信息传输的过程中如何将信息进行编码,并在保证高可靠性的同时减少信息传输的开销。

现代编码学研究所涉及到的内容非常广泛,包括错误检测、纠正编码、信息压缩以及密码学等领域。

为了帮助广大信息与通信工程学习者更好地掌握编码理论及其应用,以下总结了一些编码学的题库及答案,供大家参考。

一、错误检测编码1. 什么是奇偶校验码?答:奇偶校验码是一种简单的错误检测编码方式,它采用了消息的一位奇偶性作为编码方式。

具体而言,对于一组位数固定的二进制数,在其中加入一个附加位,使得这组数的位数为偶数。

然后将这些二进制数按照某种规则排列,例如相邻的两位组成一组,计算每组中1的个数。

如果某组中1的个数是偶数,则附加位赋值为0,否则为1。

这样,如果在传输的过程中数据出现了单一位的错误,则会被检测出来。

2. 什么是海明编码?答:海明编码是一种通过添加校验位来实现错误检测和纠正的编码方式。

在海明编码中,校验位的数目为2的k次幂个,其中k 表示数据位中最大1的位置数。

具体而言,将原始信息看作一组二进制数,再将这些数按照某种规则排列,然后按照一定的算法计算出每个校验位的值,并将这些值添加到原始信息中。

在传输的过程中,如果发现了错误的位,则可以通过一系列错误检测和纠正的操作来确定和修复出错的信息位。

二、信息压缩编码1. 什么是霍夫曼编码?答:霍夫曼编码是一种基于无损数据压缩的编码方式,它的特点是可以将原始信息中出现最频繁的字符用最短的二进制码来表示,同时将出现次数较少的字符用较长的二进制码来表示。

具体来说,霍夫曼编码首先对原始信息中的字符进行统计,确定每个字符出现的频率。

《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是什么?2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。

信息论与编码试卷及答案(多篇)

信息论与编码试卷及答案(多篇)

一、概念简答题(每题5分,共40分)1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?答:平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

2.简述最大离散熵定理。

对于一个有m个符号的离散信源,其最大熵是多少?答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。

最大熵值为。

3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?答:信息传输率R指信道中平均每个符号所能传送的信息量。

信道容量是一个信道所能达到的最大信息传输率。

信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。

平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。

4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。

答:通信系统模型如下:数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有,。

说明经数据处理后,一般只会增加信息的损失。

5.写出香农公式,并说明其物理意义。

当信道带宽为5000Hz,信噪比为30dB时求信道容量。

.答:香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。

由得,则6.解释无失真变长信源编码定理。

.答:只要,当N足够长时,一定存在一种无失真编码。

7.解释有噪信道编码定理。

答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和?答:1)保真度准则为:平均失真度不大于允许的失真度。

2)因为失真矩阵中每行都有一个0,所以有,而。

二、综合题(每题10分,共60分)1.黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为0.3,白色出现的概率为0.7。

信息论与编码第二章复习资料

信息论与编码第二章复习资料

2-1、一阶马尔可夫链信源有3个符号,转移概率为:,,,,,,,,。

画出状态图并求出各符号稳态概率。

解:由题可得状态概率矩阵为:状态转换图为:令各状态的稳态分布概率为,,,那么:, , =且: 1 稳态分布概率为:=,=,=2-2.由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:P(0|00)=0.8(0|11)=0.2(1|00)=0.2(1|11)=0.8(0|01)=0.5(0|1 0)=0.5(1|01)=0.5(1|10)=0.5画出状态图,并计算各符号稳态概率。

解:状态转移概率矩阵为:令各状态的稳态分布概率为、、、,利用〔2-1-17〕可得方程组。

且;解方程组得:即:2-3、同时掷两个正常的骰子,也就是各面呈现的概率都是,求:〔1〕、“3和5同时出现〞事件的自信息量;〔2〕、“两个1同时出现〞事件的自信息量;〔3〕、两个点数的各种组合的熵或平均信息量;〔4〕、两个点数之和的熵;〔5〕、两个点数中至少有一个是1的自信息量。

解:〔1〕3和5同时出现的概率为:〔2〕两个1同时出现的概率为:〔3〕两个点数的各种组合〔无序对〕为:(1,1),(1,2),(1,3),(1,4),(1,5),(1,6)(2,2),(2,3),(2,4),(2,5),(2,6)(3,3), (3,4),(3,5),(3,6)(4,4),(4,5),(4,6)(5,5),(5,6)(6,6)其中,(1,1), (2,2), (3,3), (4,4), (5,5), (6,6)的概率为1/36,其余的概率均为1/18所以,事件〔4〕两个点数之和概率分布为:信息为熵为:〔5〕两个点数之中至少有一个是1的概率为:2-4.设在一只布袋中装有100个用手触摸感觉完全一样的木球,每个球上涂有一种颜色。

100个球的颜色有以下三种情况:〔1〕红色球和白色球各50个;〔2〕红色球99个,白色球1个;〔3〕红、黄、蓝、白色球各25个。

信息论与编码期末考试题----学生复习用1

信息论与编码期末考试题----学生复习用1

密文c=?请写出具体的步骤。
六、设有离散无记忆信源,其概率分布如下:
对其进行费诺编码,写出编码过程,求出信
源熵、平均码长和编码效率。
七、信道编码 现有生成矩阵
1. 求对应的系统校验矩阵Hs。 2求该码字集合的最小码字距离d、最大检错能力 、最大纠错能力t max 。
2. 填写下面的es表
e
s
0000000
H(Y/X) 0,I(X;Y) H(X)。
二、若连续信源输出的幅度被限定在【2,6】区域内,当输出
信号的概率密度是均匀分布时,计算该信源的相对熵,并说明 该信源的绝对熵为多少。
三、已知信源
(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长;(4分) (3)计算编码信息率;(2分) (4)计算编码后信息传输率;(2分) (5)计算编码效率。(2分)

2、 一张1024×512像素的16位彩色BMP图像能
包含的最大信息量为

3、 香农编码中,概率为的信源符号xi对应的码
字Ci的长度Ki应满足不等式

3、设有一个信道,其信道矩阵为 ,则它是
信道(填对称,准对称),其信道容量是
比特/信道符号。
三、,通过一个干扰信道,接受符号集为,信道转
移矩阵为
试求(1)H(X),H(Y),H(XY);
0000001
0000010
0000100
0001000
0010000
0100000
1000000
4. 现有接收序列为,求纠错译码输出。 5. 5. 画出该码的编码电路
(四)
4、 简答题 1. 利用公式介绍无条件熵、条件熵、联合熵和平均互信息 量之间的关系。 2. 简单介绍哈夫曼编码的步骤

信息论与编码试卷及答案

信息论与编码试卷及答案

一、概念简答题(每题5分,共40分)二、1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?平均自信息为:表示信源的平均不确定度,表示平均每个信源消息所提供的信息量。

平均互信息:表示从Y获得的关于每个X的平均信息量;表示发X前后Y的平均不确定性减少的量;表示通信前后整个系统不确定性减少的量。

2.简述最大离散熵定理。

对于一个有m个符号的离散信源,其最大熵是多少?最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。

最大熵值为3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?信息传输率R指信道中平均每个符号所能传送的信息量。

信道容量是一个信道所能达到的最大信息传输率。

信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。

平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。

4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。

数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有,。

说明经数据处理后,一般只会增加信息的损失。

5.写出香农公式,并说明其物理意义。

当信道带宽为5000Hz,信噪比为30dB时求信道容量。

香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。

6.由得,则7.解释无失真变长信源编码定理。

只要,当N足够长时,一定存在一种无失真编码。

8.解释有噪信道编码定理。

答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

9.10.8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和?答:1)保真度准则为:平均失真度不大于允许的失真度。

11.2)因为失真矩阵中每行都有一个0,所以有,而。

二、综合题(每题10分,共60分)1.黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为0.3,白色出现的概率为0.7。

信息论与编码复习题

信息论与编码复习题

一、填空题(共10小题,每题1分)1.即时码又称为(非延长码),有时叫做(异前缀码)。

d)。

2.码的纠检错能力取决于码字的(最小距离min3.如果信源为X,信宿为Y,那么信道疑义度为(),噪声熵为()。

4.把信息组原封不动地搬到码字前k位的(n,k)码就叫做(系统码)。

5.循环码的任何一个码字的循环移位仍是码字,因此用一个基底就足以表示循环码的特征。

所以描述循环码的常用数学工具是(码多项式)。

6.香农于1948年发表了(通信的数学理论),这是一篇关于现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。

7.冗余度来自两个方面,一是(信源符号之间的相关性),二是(信源符号分布的不均匀性)。

8.差错控制的途径是:(增大信道容量C),(减小码率R),(增加码长N)。

9.信源编码的主要任务是(减少冗余,提高编码效率)。

10.汉明码是能纠正1个随机错误码元的完备码,它的码长n与监督位长度m(=n-k)之间的关系式为( )。

11.信道编码的主要目标是(提高信息传送的可靠性)。

12.信源可分为两大类,及()信源和()信源。

13.唯一可译码又分为()码和()码。

14.游程编码的码字通常由()和()组合而成。

15.从系统的角度,运用纠/检错码进行差错控制的基本方式有()、()和()。

16.常用的译码方法有()译码和()译码。

二、判断题(共10小题,每题1分)1.由于构成同一线性分组码空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集。

2.可以用生成多项式来描述任何线性分组码。

3.只要传信率R大于信道容量C,总存在一种信道码及解码器,可以以所要求的任意小的差错概率实现可靠通信。

4.码字长度i k符合克劳夫特不等式,是唯一可译码存在的充分必要条件。

5.对于m阶马尔科夫信源来说,在某一时刻出现的符号,取决于前面已出现的m个符号。

6.根据熵的可加性,序列的熵等于组成序列的各符号熵之和。

7.哈夫曼码在编码时充分考虑了信源符号分布的不均匀性和符号之间的相关性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1. 在无失真的信源中,信源输出由 R(D)来度量。

2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码,然后 一加密_ 编码,再_信道. 编码,最后送入信道。

3•带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公 式是C Wlog(1 SNR);当归一化信道容量 C/W 趋近于零时,也即信道完全丧失了通 信能力,此时E b /N o 为-1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论 极限。

2x x 1,则信息位长度k 为_3_,校验多项式6. 设输入符号表为 X = {0 , 1},输出符号表为 Y = {0,1}。

输入信号的概率分布为 p = (1/2,1/2),失真函数为 d(0, 0) = d(1, 1) = 0 , d(0, 1) =2 , d(1 , 0) = 1,则 D min = _0_, R(D min ) 1 0[p(y/x)] = ; D max = 0.5 , R(D max )=0 11L ,相应的编码器转移概率矩阵[p(y/x)] = 17. 已知用户 A 的RSA 公开密钥(e,n)=(3,55), p 5,q密钥(d,n) = (27,55)。

若用户B 向用户A 发送m=2的加密消息,则该加密后的消息为、判断题1. 可以用克劳夫特不等式作为唯一可译码存在的判据。

()2. 线性码一定包含全零码。

()3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。

(X)4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

(X)5.离散平稳有记忆信源符号序列的平均符号熵随着序列长度 L 的增大而增大。

(X) 6.限平均功率最大熵定理指出对于相关矩阵一定的随机矢量 X ,当它是正态分布时具有最大熵。

() 7. 循环码的码集中的任何一个码字的循环移位仍是码字。

() 8. 信道容量是信道中能够传输的最小信息量。

(X) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。

(X) 10. 在已知收码R 的条件下找出可能性最大的发码C i 作为译码估计值,这种译码方H(X) 来度量;在有失真的信源中,信源输出由4.保密系统的密钥量越小,密钥熵 C)就越大。

H(K)就越 小,其密文中含有的关于明文的信息量 I(M ;信道 5. 已知n = 7的循环码g(x)3 h(x)=—x x 1 x 41bit/symbol ,相应的编码器转移概率矩阵 11,则(n)40 ,他的秘密法叫做最佳译码。

()三、计算题某系统(7, 4)码c( G C5 C4C3C2G C0) (m3 m2 m1 m°C2 G c°)其三位校验位与信息位的关系为:C2m3叶m°C1m3m2m1c 0m2m1m°(1)求对应的生成矩阵和校验矩阵;(2 )计算该码的最小距离;(3 )列出可纠差错图案和对应的伴随式;(4)若接收码字R=1110011,求发码。

100011010 1I 1100解:1.0100011G H1 1 11 001000101110 1 11 100100011012. d min=33.4. RH T=[001] 接收出错E=0000001 R+E=C =(发码)四、计算题X Y01已知X,Y的联合概率p x,y为:求H X ,H Y ,H X,Y ,I X;Y01/31/31亠1/3解:p(x 0) 2/3 p(x 1) 1/3p(y 0) 1/ 3 p(y 1) 2/3H X H Y H (1/ 3,2/3) 0.918 bit/symbolH X,Y H (1/3,1/ 3,1/ 3)=1.585 bit/symbolI X;Y H(X) H (Y) H(X,Y) 0.251 bit/symbol、计算题一阶齐次马尔可夫信源消息集X {a!> a2, a3},状态集S{ S|, S2, S3},且令S i a i,i 1,2,3,条件转移概率为P(a j/S)1 4 14 121 3 1 3 1 3, (1)画出该马氏链的状态转移图;2 3 13 0(2)计算信源的极限熵。

解:⑴1 1 24吗1W2 3 W3 W i!W i 3 W2 3W3 W2 W1 0.4(2)1W11W2W3T w2 0.3/ w30.3 w1w2w31H(X|S1)=H(1/4,1/4,1/2)=1.5 比特/符号H(X|S2)=H(1/3,1/3,1/3)=1.585 比特/符号H(X|S3)=H(2/3,1/3)= 0.918 比特/符号3 Hiw. H 1 iX |S. i 0.4 1.5 0.3 1.585 0.3 0.918 1.351 比特/符号六、计算题若有- 信源X X1x22,每秒钟发出2.55个信源符号。

P0.80.2将此信源的输出符号送入某一个二元信道中进行传输 (假设信道是无噪无损的,容量为1bit/二元符号),而信道每秒钟只传递2个二元符号。

(1 ) 试问信源不通过编码(即 x i 0,X 2 1在信道中传输) (2) 能否直接与信道连接?(3) 若通过适当编码能否在此信道中进行无失真传输? (4) 试构造一种哈夫曼编码(两个符号一起编码), (5)使该信源可以在此信道中无失真传输。

解:1•不能,此时信源符号通过 0, 1在信道中传输,2.55二元符号/s>2二元符号/s信息理论与编码试卷A 答案中南大学考试试卷200 -- 2010 学年 丄学期期末考试试题时间100分钟2.55* H(0.8,0.2) = 1.84 < 1*20 X 1X 1 0.64―0.64 -11 X 1X 2 0.163.100 X2X1 0.160/ 匕 0.161101X2X20.0』—► 0.640 1.0.3*此时 pK j 0.64 0.16*2 1.56/2*2.55=1.989 二元符号 0.2*31.56二元符号/2个信源符号/s < 2二元符号 /s解:(1)11 P RP 211(2) Clog 2 H((1)22)(1 )2 2 2 (1 ) 2 (1 ) (1 )2 242.从信息率进行比较, 可以进行无失真传输七、计算题两个BSC 信道的级联如右图所示: (1) 写出信道转移矩阵; (2) 求这个信道的信道容量。

信息论基础课程32学时_学分 考试形式: 闭 卷专业年级:通信07级 ___________ 总分100分,占总评成绩70%注:此页不作答题纸,请将答案写在答题纸上一填空题(本题20分,每小题2分)1无失真信源编码的中心任务是编码后的信息率压缩接近到 _J _____ 限失真压缩中心任务是在给定的失真度条件下,信息率压缩接近到_2_ ____ 。

2信息论是应用近代数理统计方法研究信息的传输、存储与处理的科学,故称为_3 ; 1948年香农在贝尔杂志上发表了两篇有关的“通信的数学理论”文章,该文用熵对信源的4的度量,同时也是衡量 _5—大小的一个尺度;表现在通信领域里, 发送端发送什么有一个 不确定量,通过信道传输,接收端收到信息后,对发送端发送什么仍然存在一个不确定量, 把这两个不确定量差值用6来表示,它表现了通信信道流通的7,若把它取最大值,就是通信线路的_8_,若把它取最小值,就是 _9_。

3若分组码H 阵列列线性无关数为 n,则纠错码的最小距离 d min 为10 。

二 简答题 (本题20分,每小题4分)1. 根据信息理论当前无失真压宿在压宿空间和速度两个方向还有研究价值吗?2. 我们知道,“猫”(调制解调器的俗称)是在模拟链路上传输数字数据的设备,它可以在 一个音频电话线上传输二进制数据,并且没有太高的错误率。

现在,我们上网用的“猫”的 速度已可达到56Kbps 了,但是,如果你用网络蚂蚁或其它软件从网上下载东西时,你会发 现很多时候网络传输的速度都很低,远低于 56Kbps (通常音频电话连接支持的频率范围为300Hz 到3300Hz ,而一般链路典型的信噪比是 30dB )(摘自中新网) 3.结合信息论课程针对”信息”研究对象 ,说明怎样研究一个对象4. 用纠错编码基本原理分析由下列两种生成矩阵形成线性分组码的优劣fl I 0 1 0^1G —1010101 \ J5.新华社电,2008年5月16日下午6时半,离汶川地震发生整整100个小时。

虚弱得已近 昏迷的刘德云被救援官兵抬出来时, 看到了自己的女儿。

随即,他的目光指向自己的左手腕。

女儿扑上去,发现父亲左手腕上歪歪扭扭写着一句话:“我欠王老大 3000元。

”请列出上面这段话中 信号、消息、信息。

c —■0 1 1 10 110 1(1)1 )(2)三计算编码题(本题60分)1. 从大量统计资料知道,男性中红绿色盲的发病率为7%女性发病率为0.5%。

(10分)(1)若问一位女士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量?从计算的结果得出一个什么结论?(2)如果问一位女士,问她回答(是或否)前平均不确定性和回答(是或否)后得到的信息量各为多少?2•黑白气象传真图的消息只有黑色和白色两种,即信源X={黑,白}。

设黑色出现的概率为P(黑)=0.5,白色出现的概率为P(白)=0.5。

(10分)(1)假设图上黑白消息出现前后没有关联,求信源的H4商;(2)假设消息只前后有关联,其依赖关系为P(白/白)=0.8 , P(黑/白)=0.2 , P(白/黑)=0.4 , P(黑/黑)=0.6,求信源的H4商;(3)比较上面两个卡的大小,并说明其物理含义。

3. 离散无记忆信源P(x1)=8/16 ; P(x2)= 3/16 ; P(x3)= 4/16 ; P(x4)=1/16 ; (10 分)(1) 计算对信源的逐个符号进行二元定长编码码长和编码效率;(2) 对信源编二进制哈夫曼码,并计算平均码长和编码效率。

(3) 你对哈夫曼码实现新信源为等概的理解。

2 14. 设二元对称信道的传递矩阵为 3 33 3若P(0) = 3/4, P(1) = 1/4,求该信道的信道容量及其达到信道容量时的输入概率分布;并说明物理含义。

(10分)5.设信源X x1X2通过一干扰信道,接收符号为Y = { y1, y2 },信道转移P(X)0.6 0.45矩阵为616,求: (10 分)44(1)收到消息y j(j=1)后,获得的关于X i (i=2)的信息量;⑵信源X和信宿Y的信息熵;信道疑义度H(X/Y)和噪声熵H(Y/X);(3)接收到信息Y后获得的平均互信息量。

相关文档
最新文档