信息论试题

合集下载

信息论考试题

信息论考试题

一.填空1.设X的取值受限于有限区间[a,b ],则X 服从 均匀 分布时,其熵达到最大;如X 的均值为μ,方差受限为2σ,则X 服从 高斯 分布时,其熵达到最大。

2.信息论不等式:对于任意实数0>z ,有1ln -≤z z ,当且仅当1=z 时等式成立。

3.设信源为X={0,1},P (0)=1/8,则信源的熵为 )8/7(log 8/78log 8/122+比特/符号,如信源发出由m 个“0”和(100-m )个“1”构成的序列,序列的自信息量为)8/7(log )100(8log22m m -+比特/符号。

4.离散对称信道输入等概率时,输出为 等概 分布。

5.根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码。

6.设DMS 为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡03.007.010.018.025.037.0.654321u u u u u u P U U ,用二元符号表}1,0{21===x x X 对其进行定长编码,若所编的码为{000,001,010,011,100,101},则编码器输出码元的一维概率=)(1x P 0.747 , =)(2x P 0.253 。

12设有DMC,其转移矩阵为[]⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=2/16/13/13/12/16/16/13/12/1|XY P ,若信道输入概率为[][]25.025.05.0=X P ,试确定最佳译码规则和极大似然译码规则,并计算出相应的平均差错率。

解:⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=8/124/112/112/18/124/112/16/14/1][XYP最佳译码规则:⎪⎩⎪⎨⎧===331211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/6-1/8=11/24;极大似然规则:⎪⎩⎪⎨⎧===332211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/8-1/8=1/2。

信息论习题集

信息论习题集

信息论习题集第二章2.1 同时掷2颗骰子,事件A 、B 、C 分别表示:(A )仅有一个骰子是3;(B )至少有一个骰子是4;(C )骰子上点数的总和为偶数。

试计算A 、B 、C 发生后所提供的信息量。

2.3 一信源有4种输出符号i x ,i =0,1,2,3,且p(i x )=1/4。

设信源向信宿发出3x ,但由于传输中的干扰,接收者收到3x 后,认为其可信度为0.9。

于是信源再次向信宿发送该符号(3x ),信宿准确无误收到。

问信源在两次发送中发送的信息量各是多少?信宿在两次接收中得到的信息量又各是多少? 2.5 一信源有6种输出状态,概率分别为()p A =0.5, ()p B =0.25, ()p C =0.125, ()p D = ()p E =0.05, ()p F =0.025试计算()H X 。

然后求消息ABABBA 和FDDFDF 的信息量(设信源先后发出的符号相互独立),并将之与长度为6的消息序列信息量的期望值相比较。

2.6 中国国家标准局所规定的二级汉字共6763个。

设每字使用的频度相等,求一个汉字所含的信息量。

设每个汉字用一个16⨯16的二元点阵显示,试计算显示方阵所能表示的最大信息量。

显示方阵的利用率是多少?2.7 已知信源发出1a 和2a 两种消息,且12 ()()1/2p a p a ==。

此消息在二进制对称信道上传输,信道传输特性为1122(|)(|)1p b a p b a ε==-,1221(|)(|)p b a p b a ε==。

求互信息量11(;)I a b 和12(;)I a b 。

2.8 已知二维随机变量XY 的联合概率分布()i j p x y 为:(0,0)(1,1)1/8p p ==,(0,1)(1,0)3/8p p ==,求(|)H X Y 。

2.13 有两个二元随机变量X 和Y ,它们的联合概率分布如表2.5所列,同时定义另一随机变量Z X Y =(一般乘积)。

(完整word版)信息论习题集

(完整word版)信息论习题集

信息论习题集第一章、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。

(√)2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。

(√)3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(√)4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。

(√)5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。

(√)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。

(√)7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。

(×)第二章一、判断题1、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。

(√)2、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。

(×)3、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。

(×)4、信源熵是信号符号集合中,所有符号的自信息的算术平均值。

(×)5、信源熵具有极值性,是信源概率分布P的下凸函数,当信源概率分布为等概率分布时取得最大值。

(×)6、离散无记忆信源的N次扩展信源,其熵值为扩展前信源熵值的N倍。

(√)7、互信息的统计平均为平均互信息量,都具有非负性。

(×)8、信源剩余度越大,通信效率越高,抗干扰能力越强。

(×)9、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。

(×)10、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。

(×)11、在信息处理过程中,熵是不会增加的。

(√)12、熵函数是严格上凸的。

(√)13、信道疑义度永远是非负的。

(√)14、对于离散平稳信源,其极限熵等于最小平均符号熵。

信息论考试题(填空简答)

信息论考试题(填空简答)

一.填空题(每空1分,共20分)1.香农信息论的三个基本概念分别为_______________ 、_____________ 、 ____________ 。

2•对离散无记忆信源来说,当信源呈_______________ 分布情况下,信源熵取最大值。

3•写出平均互信息的三种表达公式________________ 、_____________ 、 ____________ 。

4.若连续信源输出的平均功率和均值被限定,则其输出信号幅度的概率密度函数为______________ 时,信源具有最大熵值;若连续信源输出非负信号的均值受限,则其输出信号幅度呈____________ 分布时,信源具有最大熵值。

5. ________________________________ 信道容量是为了解决通信的_________________________ 问题,而信息率失真函数是为了解决通信的___________ 问题。

6. ______________________________________________________ 费诺编码比较适合于的信源。

7•无记忆编码信道的每一个二元符号输出可以用多个比特表示,理想情况下为实数,此时的无记忆二进制信道又称为__________________________ 。

&差错控制的4种基本方式是:_________________ 、_____________ 、 ____________ 、______________ 。

9 . (n,k)线性码能纠t个错误,并能发现I个错误(l>t),码的最小距离为:10.循环码码矢的i次循环移位等效于将码多项式乘___________________ 后再模______________ 。

二.简答题(每小题5分,共30分)1 •分别说明平均符号熵与极限熵的物理含义并写出它们的数学表达式。

2•写出二进制均匀信道的数学表达式,并画出信道容量C与信道转移概率 p的曲线图。

信息论题

信息论题

习 题一、填空1、 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

2、 事物的不确定度是用时间统计发生 概率的对数 来描述的。

3、 单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。

4、 一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。

5、 必然事件的自信息是 0 。

6、 不可能事件的自信息量是 ∞ 。

7、 两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。

8、 数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。

9、 离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。

10、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。

11、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。

12、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log 2(b-a ) 。

13、平均功率为P 的高斯分布的连续信源,其信源熵,H c (X )=eP π2log 212。

14、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。

15、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。

16、若把掷骰子的结果作为一离散信源,则其信源熵为 log 26 。

17、若一维随即变量X 的取值区间是[0,∞],其概率密度函数为m xe m x p -=1)(,其中:0≥x ,m 是X 的数学期望,则X 的信源熵=)(X H C me 2log 。

18、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续 信道。

19、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 无记忆 信道。

信息论小题测试题

信息论小题测试题

第一章自我测试题一、填空题1.在认识论层次上研究信息的时候,必须同时考虑到形式、_____和_____三个方面的因素。

2.如果从随机不确定性的角度来定义信息,信息是用以消除_____的东西。

3.信源编码的结果是_____冗余;而信道编码的手段是_____冗余。

4._____年,香农发表了著名的论文_____,标志着信息论诞生。

5.信息商品是一种特殊商品,它有_____性、_____性、_____性和知识创造性等特征。

二、判断题1.信息传输系统模型表明,噪声仅仅来源于信道()2.本体论层次信息表明,信息不依赖于人而存在()3.信道编码与译码是一对可逆变换()4.1976年,论文《密码学的新方向》的发表,标志着保密通信研究的开始()5.基因组序列信息的提取和分析是生物信息学的研究内容之一()三、选择题1.下列表述中,属于从随机不确定性的角度来定义信息的是_____A.信息是数据B.信息是集合之间的变异度C.信息是控制的指令D.信息是收信者事先不知道的报道2._____是最高层次的信息A.认识论B.本体论C.价值论D.唯物论3.下列不属于狭义信息论的是_____A.信息的测度B.信源编码C.信道容量D.计算机翻译4.下列不属于信息论的研究内容的是_____A.信息的产生B.信道传输能力C.文字的统计特性D.抗干扰编码5.下列关于信息论发展历史描述不正确的是_____A.偶然性、熵函数引进物理学为信息论的产生提供了理论前提。

B.1952年,香农发展了信道容量的迭代算法C.哈特莱用消息可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。

D.1959年,香农首先提出率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。

四、简答题给定爱因斯坦质能方程2Emc ,试说明该方程所传达的语法信息、语义信息和语用信息。

第一章 自我测试题参考答案一、填空题1. 语义,语用2. 随机不确定性3. 减小,增加4. 1948,通信的数学理论5. 保存性,共享性,老化可能性二、判断题1. ×;2.√;3.×;4.×;5.√三、选择题1. D ;2. B ;3. D ;4. A ;5. B四、简答题语法信息:就是该方程中各个字母、符号的排列形式。

(完整word版)信息论试卷

一、选择题1、下列那位创立了信息论.(C)A.牛顿B.高斯C.香农D.哈夫曼2、下列不属于消息的是。

(B)A.文字B.信号C.图像D.语言3、同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为2,则得到的自信息量为(B)。

A.-log36 bitB.log36 bitC.-log18 bitD.log18 bit4、下列说法不正确的是(C)A.异字头码肯定是唯一可译的B.逗点码是唯一可译的C.唯一可译码不必满足Kraft 不等式D.无逗点码可以唯一可译5、下述编码中那个可能是任何概率分布对应的Huffman编码(A)A.{0,10,11}B.{00,01,10,110}C.{01,10}D.{001,011,100,101}6、下列物理量不满足非负性的是(D)A.H(X)B.I(X;Y)C.H(Y|X)D.I(x j;y j)7、信源的输出与信道的输入匹配的目的不包括(D)A.符号匹配B.信息匹配C.降低信道剩余度D.功率匹配8、在串联系统中,有效信息量的值(B)A.趋于变大B.趋于变小C.不变D.不确定二、判断题1、信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。

(T)2、信息是先验概率和后验概率的函数,信息量是事件数目的指数函数。

(F)提示:对数函数3、两个事件之间的互信息量可正,可负,也可能为0。

(T)4、在通讯系统中,无论对接收到的信息怎样处理,信息只会减少,绝不可能增加。

(T )5、Huffman 编码是唯一的.(F)提示:不唯一6、概率大的事件自信息量大。

(F )提示:小7、在事件个数相同条件下,事件等概率出现情况下的熵值最大。

(T)8、平稳的离散无记忆信道不可用一维概率描述。

(F)提示:可以三、填空题1、必然事件的自信息是 0 .2、根据码字所含的码元的个数,编码可分为 等长 编码和 不等长 编码。

3、不等长D 元码,码字最长限定为N,则至多有 D(D N - 1)/(D — 1) 个码字。

信息论试题

试题一一、填空(共20分)1.信息技术的基本内容是_______、_______、_______、_______。

2.已知英语字母的极限熵为1bit,且每个英语字母的最大熵H max=4.0651bit,则英语信源的冗余度为______。

3.当x i和y j相互独立时,互信息量I(x i;y j)为______。

4.熵函数是严格的_____函数。

5.已知信源包含的消息用一种延长码组进行编码,它们的对应关系:x1 0,x201,x3011,x40111。

设收到的码元序列为010101110011100110101110,它能唯一地被译成消息________________。

6.信道容量的定义是______________________________。

7.唯一可译码的码长必需满足一定条件,该条件为:_______________。

二、简述题(20分)1、试简述信息的基本性质。

2、试通过简单的通信模型,描述平均互信息量的物理意义。

三、有两个二元随机变量X和Y的联合概率如下表,并定义另一随机变量Z=X ⊕Y (其中⊕代表异或运算,即当X,Y取值相同时,Z等于0,当X,Y取值不相同时,Z等于1)(15分)求:1、I(x0), I(y1)2、)(X H ,)(Y H ,)(Z H3、)(XZ H ,)(XYZ H4、)/(Y X H ,)/(Z X H ,)/(XZ Y H5、);(Z X I ,)/;(Z Y X I四、设有一个信源,它产生0,1序列的消息。

它在任意时间而且不论以前发出过什么符号,均按P (0)=0.4,P (1)=0.6的概率发出符号。

1、试问这个信源是否是平稳的 2、试计算H (X 2),H (X 3/X 1X 2)3、试计算H (X 4)并写出X 4信源中可能有的所有符号。

(15分)1、对这八个符号作二进制码元的霍夫曼编码,写出各个码字,并求出编码效率2、求编码后码字中码元0、1的概率分布。

信息论试题

信息论试题一、选择题1. 信息论的创始人是()。

A. 克劳德·香农B. 艾伦·图灵C. 约翰·冯·诺伊曼D. 阿兰·麦席森2. 下列哪个选项是信息论中信息熵的计算公式?()。

A. H(X) = -ΣP(x)log_2P(x)B. H(X) = ΣP(x)xC. H(X) = 1/ΣP(x)D. H(X) = log_2(1/P(x))3. 在信息论中,互信息用于衡量两个随机变量之间的()。

A. 独立性B. 相关性C. 非线性D. 周期性4. 以下哪个不是信息论的应用领域?()。

A. 通信系统B. 密码学C. 机器学习D. 生物遗传学5. 香农极限是指()。

A. 信息传输的最大速率B. 信息压缩的最小冗余度C. 信道容量的理论上限D. 编码长度的最优解二、填空题1. 信息论中的信息熵是衡量信息的不确定性或________的度量。

2. 互信息表示两个随机变量之间共享的信息量,它是衡量两个变量之间________的指标。

3. 香农在1948年发表的论文《________》奠定了信息论的基础。

4. 在数字通信中,信道容量可以通过公式________来计算。

5. 信息论不仅在通信领域有广泛应用,它还对________、数据分析等产生了深远影响。

三、简答题1. 简述信息论的基本原理及其在现代通信中的作用。

2. 描述香农信息论中的主要概念及其相互之间的关系。

3. 说明信息论如何应用于数据压缩技术,并给出一个实际例子。

4. 讨论信息论对于密码学和信息安全的贡献。

四、论述题1. 论述信息论对于人工智能和机器学习领域的影响及其潜在的应用前景。

2. 分析信息论在生物信息学中的应用,以及如何帮助我们更好地理解生物系统的复杂性。

3. 探讨信息论在社会网络分析中的应用,以及它如何帮助我们理解和预测社会行为模式。

4. 评述信息论在量子通信和量子计算中的潜在作用及其对未来科技发展的意义。

信息论测试题及答案

一、设X 、Y 是两个相互统计独立的二元随机变量,其取-1或1的概率相等。

定义另一个二元随机变量Z ,取Z=YX (一般乘积)。

试计算:1.H (Y )、H (Z );2.H (YZ );3.I (X;Y )、I (Y;Z ); 二、如图所示为一个三状态马尔科夫信源的转移概率矩阵1. 绘制状态转移图;2. 求该马尔科夫信源的稳态分布;3. 求极限熵;三、在干扰离散对称信道上传输符号1和0,已知P (0)=1/4,P(1)=3/4,试求:1. 信道转移概率矩阵P2.信道疑义度3.信道容量以及其输入概率分布 四、某信道的转移矩阵⎥⎦⎤⎢⎣⎡=1.006.03.001.03.06.0P ,求信道容量,最佳输入概率分布。

五、求下列各离散信道的容量(其条件概率P(Y/X)如下:)六、求以下各信道矩阵代表的信道的容量答案一、设X 、Y 是两个相互统计独立的二元随机变量,其取-1或1的概率相等。

定义另一个二元随机变量Z ,取Z=YX (一般乘积)。

试计算:1.H (Y )、H (Z );2.H (XY )、H (YZ );3.I (X;Y )、I (Y;Z ); 解:1. 2i 11111H Y P y logP y log log 2222i i =⎡⎤=-+⎢⎥⎣⎦∑()=-()()=1bit/符号 Z=YX 而且X 和Y 相互独立∴ 1(1)(1)(1)PP X P Y P X ⋅=+=-⋅=-(Z =1)=P(Y=1)= 1111122222⨯+⨯= 2(1)(1)(1)P P X P Y P X ⋅=-+=-⋅=(Z =-1)=P(Y=1)= 1111122222⨯+⨯=故H(Z)= i2i1(z )log (z )i P P =-∑=1bit/符号2.从上式可以看出:Y 与X 的联合概率分布为:H(YZ)=H(X)+H(Y)=1+1=2bit/符号 3.X 与Y 相互独立,故H(X|Y)=H(X)=1bit/符号∴I (X;Y )=H(X)-H(X|Y)=1-1=0bit/符号I(Y;Z)=H(Y)-H(Y|Z)=H(Y)-[H(YZ)-H(Z)]=0 bit/符号二、如图所示为一个三状态马尔科夫信源的转移概率矩阵2. 绘制状态转移图; 2. 求该马尔科夫信源的稳态分布;3. 求极限熵;解:1.状态转移图如右图 2.由公式31()()(|)j iji i p E P E P EE ==∑,可得其三个状态的稳态概率为:1123223313123111()()()()22411()()()2211()()()24()()()1P E P E P E P E P E P E P E P E P E P E P E P E P E ⎧=++⎪⎪⎪=+⎪⎨⎪=+⎪⎪⎪++=⎩1233()72()72()7P E P E P E ⎧=⎪⎪⎪⇒=⎨⎪⎪=⎪⎩3.其极限熵:3i i 13112112111H = -|E =0+0+72272274243228=1+1+ 1.5=bit/7777i P H H H H ∞=⨯⨯⨯⨯⨯⨯∑(E )(X )(,,)(,,)(,,)符号三、在干扰离散对称信道上传输符号1和0,已知P (0)=1/4,P(1)=3/4,试求:2. 信道转移概率矩阵P 2.信道疑义度3.信道容量以及其输入概率分布解:1.该转移概率矩阵为 P=0.90.10.10.9⎡⎤⎢⎥⎣⎦2.根据P (XY )=P (Y|X )⋅P (X ),可得联合概率由P (X|Y )=P(X|Y)/P(Y)可得H(X|Y)=-i jiji j(x y )log x |y =0.09+0.12+0.15+0.035=0.4bit/P P∑,()符号 3.该信道是对称信道,其容量为:C=logs-H=log2-H (0.9,0.1)=1-0.469=0.531bit/符号这时,输入符号服从等概率分布,即01 11()22XP X⎡⎤⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦⎣⎦四、某信道的转移矩阵⎥⎦⎤⎢⎣⎡=1.06.03.01.03.06.0P,求信道容量,最佳输入概率分布。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1.黑白气象传真图的消息只有黑色和白色两种,即信源X ={黑,白},设P(黑)=0.3,P(白)=0.7。

(1)假设图上黑白消息出现前后没有关联,求熵H(X)。

(2)假设消息前后有关联,其依赖关系为p(白|白)=0.9,p(黑|白)=0.1,p(白|黑)=0.2,p(黑|黑)=0.8,求此一阶马尔可夫信源的熵H2。

(3)分别求上述两种信源的剩余度,并比较H(X)和H2的大小(2)(3)。

())/(88.07.0log 7.03.0log 3.0)(log )()(7.0)(,3.0)(},,{)1(22212212121symbol bit e p e p X H e p e p e e X e e i i i =+-=-====∑=则”代表“白”,”代表“黑”,“设“解:32)(,31)()(9.0)(2.0)/()()/()()()(1.0)(8.0)/()()/()()(2,1)/()()()(0)(1)/(2,1,)/(9.0)/(1.0)/(2.0)/(8.0)/(2121222121221212111121212122211211==+=+=+=+===>==⎭⎬⎫⎩⎨⎧====∑∑==e p e p e p e p e e p e p e e p e p e p e p e p e e p e p e e p e p e p j e e p e p e p e p e p e e p j i e e p e e e e p e e p e e p e e p j i j i j j i j i j i j 解方程得:则有:的状态极限概率求数学模型)/(553.0)]/(log )/()()/(log )/()()/(log )/()()/(log )/()([)/(log )/()()(222222212212122121112111221212symbol bit e e p e e p e p e e p e e p e p e e p e e p e p e e p e e p e p e e p e e p e p X H i j i j i j i =+++-=-=∑∑==度越大。

平均信息量越小,冗余相关性越强,所提供的物理意义:信源符号的45.0155.01)()(112.0188.01)()(1112log log )(02022001100220=-=-=-==-=-=-=-=-====∞H X H X H H X H X H H H H n X H ηξηξηξ2.(4,3)偶校验码是一个(4,3)线性分组码,其生成矩阵为 ⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=110010101001G ,求消息码010,110所对应的线性码。

解:将消息码直接代入有:3.设信源⎭⎬⎫⎩⎨⎧=⎪⎪⎭⎫ ⎝⎛08.016.018.022.004.032.0654321)(x x x x x x X P X ,编二进制费诺码,并计算其编码效率。

4.有一个二元对称信道,其信道矩阵如下图所示。

设该信道以1500个二元符号/秒的速度传输输入符号。

现有一消息序列共有 14000个二元符号,并设在这消息中P(0)=P(1)=1/2。

问从信息传输的角度来考虑,10秒钟内能否将这消息序列无失真地传送完?解答:消息是一个二元序列,且为等概率分布,即P(0)=P(1)=1/2,故信源的熵为H(X)=1(bit/symbol)。

则该消息序列含有的信息量=14000(bit/symbol)。

下面计算该二元对称信道能传输的最大的信息传输速率:信道传递矩阵为:信道容量(最大信息传输率)为:C=1-H(P)=1-H(0.98)≈0.8586bit/symbol]m m m m m [m 110010101001]m m [m C C C C C 3213213214321++=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡==11001100101010010]1[1C C C C C 01011100101010010]1[0C C C C C 43214321=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡===⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡==0.980.020.020.98P ⎡⎤=⎢⎥⎣⎦symbol bit Y X H X H Y X I symbol bit X Y H Y H X H Y X H X Y H Y H Y X H X H Y X I symbol bit y p Y H x y p x p x y p x p y x p y x p y p x y p x p x y p x p y x p y x p y p symbol bit x y p x y p x p X Y H symbolbit x p X H jj i ji j i j i ii / 062.0749.0811.0)/()();(/ 749.0918.0980.0811.0)/()()()/()/()()/()();(/ 980.0)4167.0log 4167.05833.0log 5833.0()()(4167.032413143)/()()/()()()()(5833.031413243)/()()/()()()()(/ 918.0 10log )32lg 324131lg 314131lg 314332lg 3243( )/(log )/()()/(/ 811.0)41log 4143log 43()()(222221212221221211112111222=-==-==+-=+-=-=-==⨯+⨯-=-==⨯+⨯=+=+==⨯+⨯=+=+==⨯⨯+⨯+⨯+⨯-=-==⨯+⨯-=-=∑∑∑∑得最大信息传输速率为:Rt ≈1500符号/秒× 0.8586比特/符号 ≈1287.9比特/秒 ≈1.288×103比特/秒此信道10秒钟内能无失真传输得最大信息量=10× Rt ≈ 1.288×104比特可见,此信道10秒内能无失真传输得最大信息量小于这消息序列所含有的信息量,故从信息传输的角度来考虑,不可能在10秒钟内将这消息无失真的传送完。

5.设二元对称信道的传递概率为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡32313132,①若P(0)=3/4,P(1)=1/4,求H(X),H(X/Y),H(Y/X)和I(X;Y)。

②求该信道的信道容量及达到信道容量时的输入概率分布。

解:1)2)2221122max (;)log log 2(lg lg )log 100.082 /3333mi C I X Y m H bit symbol ==-=++⨯=其最佳输入分布为1()2i p x =6. (1)为了使电视图像获得良好的清晰度和规定的适当的对比度,需用5x105个像素和10个不同亮度电平,求传递此图像所需的信息率(比特/秒),并设每秒要传送30帧图像,所有像素是独立变化的,且所有亮度电平等概率出现。

(2)设某彩电系统,除了满足对于黑白电视系统的上述要求外,还必须有30个不同的色彩度,试证明传输这彩色系统的信息率要比黑白系统的信息率约大2.5倍。

(1)每个象素亮度信源的概率空间为每个象素亮度含有的信息量每帧图像信源就是离散亮度信源的无记忆N 次扩展信源,可得每帧图像含有的信息量为每秒30帧,则传递此图像所需的信息率为(2)色彩度信源的概率空间为 每个色彩度含有的信息量亮度和色彩度是独立同时出现的,每个象素含有的信息量为在每帧所用象素数和每秒传送帧数相同时,信息率之比为7 设有一个信源,它产生0,1序列的消息。

它在任意时间而且不论以前发生过什么符号,均按P(0)=0.4,p(1)=0.6的概率发出符号。

(1)试问这个信源是否是平稳的?(2)试计算H(X2),H(X3|X1X2)及limHN(X).(3)试计算H(X4)并写出X4信源中可能有的所有符号(1)信源发出符号的概率分布与时间平移无关,而且信源发出的序列之间也是彼此无依赖的,因此该信源是平稳的,而且是离散无记忆信源。

(2)1012101()1()1/101/101/10i i i X a a a p a p a =⎡⎤⎡⎤==⎢⎥⎢⎥⎣⎦⎣⎦∑2()log 10 3.32/H X bit pixel =≈562()()510log 10 1.6610/N H X NH X bit frame ==⨯≈⨯7130() 4.9810/N R H X bit s =⨯≈⨯3012301()1()1/301/301/30j j j Y b b b p b p b =⎡⎤⎡⎤==⎢⎥⎢⎥⎣⎦⎣⎦∑2()log 30 4.91/H Y bit pixel =≈()()()8.23/H XY H X H Y bit pixel =+≈2212log 300() 2.5()log 10R H XY R H X ==≈()[])/(97.0)()()()/(lim )(lim )/(97.0)()(2)(3)()()/()/(94.16.0log 6.04.0log 4.02)(2)(1212112121321213222symbol bit X H X X X H X X X H X X X X H X H symbol bit X H X H X H X X H X X X H X X X H symbol bit X H X H N N N N N N N ==-====-=-==+-==--∞→∞→(3)1.设有一单符号离散信源,⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡04.008.016.018.022.032.0654321)(xxxxxxXPX对该信源编写二进制费诺玛。

求已知信源的二进制费诺编码,并求编码效率。

1111111011011100101110101001100001110110010101000011001000010000)/(88.3)(4)(4符号:symbolbitXHXH==。

相关文档
最新文档