信息理论与编码参考答案

合集下载

信息论与编码理论习题答案

信息论与编码理论习题答案

信息论与编码理论习题答案LG GROUP system office room 【LGA16H-LGYY-LGUA8Q8-LGA162】第二章 信息量和熵八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率。

解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit因此,信息速率为 6⨯1000=6000 bit/s掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。

问各得到多少信息量。

解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1})(a p =366=61得到的信息量 =)(1loga p =6log = bit (2) 可能的唯一,为 {6,6})(b p =361得到的信息量=)(1logb p =36log = bit 经过充分洗牌后的一副扑克(52张),问:(a) 任何一种特定的排列所给出的信息量是多少?(b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解:(a) )(a p =!521信息量=)(1loga p =!52log = bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选种点数任意排列13413!13)(b p =1352134!13A ⨯=1352134C 信息量=1313524log log -C = bit 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。

解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立,则1x X =,21x x Y +=,321x x x Z ++=)|(Y Z H =)(3x H =log 6= bit )|(X Z H =)(32x x H +=)(Y H=2⨯(361log 36+362log 18+363log 12+364log 9+365log 536)+366log 6= bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ]而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H = bit或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H = bit),|(Y X Z H =)|(Y Z H =)(X H = bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =+= bit设一个系统传送10个数字,0,1,…,9。

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》习题参考答案1. 信息是什么信息与消息有什么区别和联系答:信息是对事物存在和运动过程中的不确定性的描述。

信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。

2. 语法信息、语义信息和语用信息的定义是什么三者的关系是什么答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。

语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。

语用信息是信息的最高层次。

它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。

三者之间是内涵与外延的关系。

第2章1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量答:依据题意,这一随机事件的概率空间为120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦其中:1x 表示摸出的球为红球事件,2x 表示摸出的球是白球事件。

a)如果摸出的是红球,则获得的信息量是()()11log log0.8I x p x =-=-(比特)b)如果摸出的是白球,则获得的信息量是()()22log log0.2I x p x =-=-(比特)c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。

则如此摸取n 次,红球出现的次数为()1np x 次,白球出现的次数为()2np x 次。

随机摸取n 次后总共所获得信息量为()()()()1122np x I x np x I x +d)则平均随机摸取一次所获得的信息量为()()()()()()()()()112211221log log 0.72 H X np x I x np x I x np x p x p x p x =+⎡⎤⎣⎦=-+⎡⎤⎣⎦=比特/次2. 居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。

信息与编码理论课后习题答案

信息与编码理论课后习题答案

2.1 莫尔斯电报系统中,若采用点长为0.2s ,1划长为0.4s ,且点和划出现的概率分别为2/3和1/3,试求它的信息速率(bits/s)。

解: 平均每个符号长为:1544.0312.032=⨯+⨯秒 每个符号的熵为9183.03log 3123log 32=⨯+⨯比特/符号所以,信息速率为444.34159183.0=⨯比特/秒2.2 一个8元编码系统,其码长为3,每个码字的第一个符号都相同(用于同步),若每秒产生1000个码字,试求其信息速率(bits /s)。

解: 同步信号均相同不含信息,其余认为等概,每个码字的信息量为 3*2=6 比特;所以,信息速率为600010006=⨯比特/秒2.3 掷一对无偏的骰子,若告诉你得到的总的点数为:(a ) 7;(b ) 12。

试问各得到了多少信息量?解: (a)一对骰子总点数为7的概率是366 所以,得到的信息量为 585.2)366(log 2= 比特(b) 一对骰子总点数为12的概率是361 所以,得到的信息量为 17.5361log 2= 比特2.4经过充分洗牌后的一付扑克(含52张牌),试问:(a) 任何一种特定排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解: (a)任一特定排列的概率为!521, 所以,给出的信息量为 58.225!521log 2=- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 13131313525213!44A C ⨯=所以,得到的信息量为 21.134log 1313522=C 比特.2.5 设有一个非均匀骰子,若其任一面出现的概率与该面上的点数成正比,试求各点出现时所给出的信息量,并求掷一次平均得到的信息量。

解:易证每次出现i 点的概率为21i,所以比特比特比特比特比特比特比特398.221log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21log )(2612=-==============-==∑=i i X H x I x I x I x I x I x I i ii x I i2.6 园丁植树一行,若有3棵白杨、4棵白桦和5棵梧桐。

信息理论与编码课后答案第2章

信息理论与编码课后答案第2章

第二章 信息的度量习题参考答案不确定性与信息(2.3)一副充分洗乱的牌(含52张),试问: (1)任一特定排列所给出的不确定性是多少?(2)随机抽取13张牌,13张牌的点数互不相同时的不确定性是多少? 解:(1)一副充分洗乱的扑克牌,共有52张,这52张牌可以按不同的一定顺序排列,可能有的不同排列状态数就是全排列种数,为6752528.06610P =≈⨯!因为扑克牌充分洗乱,所以任一特定排列出现的概率是相等的。

设事件A 为任一特定排列,则其发生概率为 ()6811.241052P A -=≈⨯!可得,任一特定排列的不确定性为()()22log log 52225.58I A P A =-=≈!比特 (2)设事件B 为从中抽取13张牌,所给出的点数都不同。

扑克牌52张中抽取13张,不考虑其排列顺序,共有1352C 种可能的组合,各种组合都是等概率发生的。

13张牌中所有的点数都不相同(不考虑其顺序)就是13张牌中每张牌有4种花色,所以可能出现的状态数为413。

所以()131341352441339 1.05681052P B C -⨯!!==≈⨯!则事件B 发生所得到的信息量为()()13213524log log 13.208I B P B C =-=-≈ 比特2.4同时扔出两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“2和6 同时出现”这事件的自信息量。

(2)“两个3同时出现”这事件的自信息量。

(3)两个点数的各种组合(无序对)的熵。

(4)两个点数之和(即2,3,…,12构成的子集)的熵。

(5)两个点数中至少有一个是1的自信息。

解:同时扔两个正常的骰子,可能呈现的状态数有36种,因为两骰子是独立的,又各面呈现的概率为61,所以36种中任一状态出现的概率相等,为361。

(1) 设“2和6同时出现”这事件为A 。

在这36种状态中,2和6同时出现有两种情况,即2,6和2,6。

信息论与编码理论课后答案

信息论与编码理论课后答案

信息论与编码理论课后答案【篇一:《信息论与编码》课后习题答案】式、含义和效用三个方面的因素。

2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

4、按照信息的地位,可以把信息分成客观信息和主观信息。

5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

6、信息的是建立信息论的基础。

7、8、是香农信息论最基本最重要的概念。

9、事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。

12、自信息量的单位一般有比特、奈特和哈特。

13、必然事件的自信息是。

14、不可能事件的自信息量是15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。

17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。

limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。

19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。

20、一维连续随即变量x在[a,b] 。

1log22?ep21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。

22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。

23、对于限平均功率的一维连续信源,当概率密度24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。

2728、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?11?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学2期望,则x的信源熵c。

信息论与编码第三版答案

信息论与编码第三版答案

信息论与编码第三版答案《信息论与编码》是一本非常经典的书籍,已经成为了信息科学领域中的经典教材。

本书的第三版已经出版,相比于前两版,第三版的变化不小,主要是增加了一些新内容,同时也对一些旧内容做了修改和完善。

作为一本教材,上面的题目和习题都是非常重要的,它们可以帮助读者更好地理解书中的相关概念和知识点,同时也可以帮助读者更好地掌握理论和技术。

因此,本文将介绍《信息论与编码》第三版中部分习题的答案,方便读者快速查阅和学习。

第一章:信息量和熵1.1 习题1.1Q:两个随机变量的独立性和无关性有什么区别?A:独立性和无关性是两个不同的概念。

两个随机变量是独立的,当且仅当它们的联合概率分布等于乘积形式的边缘概率分布。

两个随机变量是无关的,当且仅当它们的协方差等于0。

1.2 习题1.7Q:什么样的随机变量的熵等于0?A:当随机变量的概率分布是确定的(即只有一个概率为1,其余全为0),其熵等于0。

第二章:数据压缩2.5 习题2.9Q:为什么霍夫曼编码比熵编码更加高效?A:霍夫曼编码能够更好地利用信源的统计特征,将出现频率高的符号用较短的二进制编码表示,出现频率低的符号用较长的二进制编码表示。

这样一来,在编码过程中出现频率高的符号会占用较少的比特数,从而能够更加高效地表示信息。

而熵编码则是针对每个符号分别进行编码,没有考虑符号之间的相关性,因此相比于霍夫曼编码更加低效。

第四章:信道编码4.2 习题4.5Q:在线性块码中,什么是生成矩阵?A:在线性块码中,生成矩阵是一个包含所有二元线性组合系数的矩阵。

它可以用来生成码字,即任意输入信息序列可以通过生成矩阵与编码器进行矩阵乘法得到相应的编码输出序列。

4.3 习题4.12Q:简述CRC校验的原理。

A:CRC校验是一种基于循环冗余校验的方法,用于检测在数字通信中的数据传输错误。

其基本思想是将发送数据看作多项式系数,通过对这个多项式进行除法运算,得到余数,将余数添加到数据尾部,发送给接收方。

信息理论与编码

信息理论与编码

1、单选题下列不属于消息的是( )。

2分文字信号图像语言标准答案: B2、单选题设有一个无记忆信源发出符号A和B,已知[如图1],发出二重符号序列消息的信源,无记忆信源熵[如图2]为( )。

2分图1图20.81bit/二重符号1.62bit/二重符号0.93 bit/二重符号1.86 bit/二重符号标准答案: B3、单选题同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为( )。

2分-log36bitlog36bit-log(11/36)bitlog(11/36)bit标准答案: B4、单选题二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,x0: 发出一个0 、x1: 发出一个1、y0 :收到一个0、y1:收到一个1 ,则已知收到的符号,被告知发出的符号能得到的信息量是( )。

2分H(X/Y)H(Y/X)H(X,Y)H(XY)标准答案: A5、单选题一个随即变量x的概率密度函数P(x)= x /2,[如图1],则信源的相对熵为( )。

2分图10.5bit0.72bit1bit1.44bit标准答案: C6、单选题下面哪一项不属于熵的性质:( )。

2分非负性完备性对称性确定性标准答案: B7、单选题根据树图法构成规则,( )。

2分在树根上安排码字在树枝上安排码字在中间节点上安排码字在终端节点上安排码字标准答案: D8、单选题下列组合中不属于即时码的是( )。

2分{0,01,011}{0,10,110}{00,10,11}{1,01,00}标准答案: A9、单选题已知某(6,3)线性分组码的生成矩阵[如图1],则不用计算就可判断出下列码中不是该码集里的码是( )。

2分图1000000110001011101111111标准答案: D10、单选题下列保密编码中属于现代密码体制的是( )2分凯撒密码Vigenere密码韦维纳姆密码DES加密算法标准答案: D11、单选题1948年,美国数学家( )发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》习题参考答案1. 信息是什么信息与消息有什么区别和联系答:信息是对事物存在和运动过程中的不确定性的描述。

信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。

2. 语法信息、语义信息和语用信息的定义是什么三者的关系是什么答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。

语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。

语用信息是信息的最高层次。

它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。

三者之间是内涵与外延的关系。

第2章1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量答:依据题意,这一随机事件的概率空间为120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦其中:1x 表示摸出的球为红球事件,2x 表示摸出的球是白球事件。

a)如果摸出的是红球,则获得的信息量是()()11log log0.8I x p x =-=-(比特)b)如果摸出的是白球,则获得的信息量是()()22log log0.2I x p x =-=-(比特)c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。

则如此摸取n 次,红球出现的次数为()1np x 次,白球出现的次数为()2np x 次。

随机摸取n 次后总共所获得信息量为()()()()1122np x I x np x I x +d)则平均随机摸取一次所获得的信息量为()()()()()()()()()112211221log log 0.72 H X np x I x np x I x n p x p x p x p x =+⎡⎤⎣⎦=-+⎡⎤⎣⎦=比特/次2. 居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
说明:
(1)符号之间的相互依赖性造成了信源的条件熵 比信源熵 少。
(2)联合熵 表示平均每两个信源符号所携带的信息量。平均每一个信源符号所携带的信息量近似为
原因在于 考虑了符号间的统计相关性,平均每个符号的不确定度就会小于不考虑符号相关性的不确定度。
2、20黑白气象传真图的消息只有黑色(B)与白色(W)两种,即信源 ,设黑色出现的概率为 ,白色的出现概率为 。
(1)假设图上黑白消息出现前后没有关联,求熵
(2)假设图上黑白消息出现前后有关联,其依赖关系为 , , , ,求此一阶马尔可夫信源的熵 。
(3)分别求上述两种信源的剩余度,并比较 与 的大小,试说明其物理意义。
解:(1)假设传真图上黑白消息没有关联,则等效于一个DMS,则信源概率空间为
信源熵为
(2)该一阶马尔可夫信源的状态空间集为
解:猜测木球颜色所需要的信息量等于木球颜色的不确定性。令
R——“取到的就是红球”,W——“取到的就是白球”,
Y——“取到的就是黄球”,B——“取到的就是蓝球”。
(1)若布袋中有红色球与白色球各50只,即
则 bit
(2)若布袋中红色球99只,白色球1只,即
则 bit
bit
(3)若布袋中有红,黄,蓝,白色各25只,即
0
1
2
0
1/4
1/18
0
1
1/18
1/3
1/18
2
0
1/18
7/36
求信源的信息熵、条件熵与联合熵,并比较信息熵与条件熵的大小。
解:边缘分布为
条件概率 如下表:
0
1
2
0
9/11
1/8
0
1
2/11
3/4
2/9
2
0
1/8
7/9
所以信源熵为
条件熵:
可知
因为无条件熵不小于条件熵,也可以得出如上结论。
联合熵:
则发生事件B所得到的信息量为
bit
dit
2、5设在一只布袋中装有100只对人手的感觉完全相同的木球,每只上涂有1种颜色。100只球的颜色有下列三种情况:
(1)红色球与白色球各50只;
(2)红色球99只,白色球1只;
(3)红,黄,蓝,白色各25只。
求从布袋中随意取出一只球时,猜测其颜色所需要的信息量。
(2)平均每个回答中含有多少信息量?
(3)如果您问一位女同志,则答案中含有的平均信息量就是多少?
解:对于男性,就是红绿色盲的概率记作 ,不就是红绿色盲的概率记作 ,这两种情况各含的信息量为
bit
bit
平均每个回答中含有的信息量为
bit/回答
对于女性,就是红绿色盲的概率记作 ,不就是红绿色盲的记作 ,则平均每个回答中含有的信息量为
(1)试问这个信源就是否就是平稳的?
(2)试计算 , 及 ;
(3)试计算 并写出 信源中可能有的所有符号。
2、3一副充分洗乱的牌(含52张),试问:
(1)任一特定排列所给出的不确定性就是多少?
(2)随机抽取13张牌,13张牌的点数互不相同时的不确定性就是多少?
解:(1)52张扑克牌可以按不同的顺序排列,所有可能的不同排列数就就是全排列种数,为
因为扑克牌充分洗乱,任一特定排列出现的概率相等,设事件A为任一特定排列,则其发生概率为
bit/回答
联合熵与条件熵
2、9任意三个离散随机变量 、 与 ,求证:

证明:
方法一:要证明不等式 成立,等价证明下式成立:
根据熵函数的定义
得证
方法二:因为
所以,求证不等式等价于
因为条件多的熵不大于条件少的熵,上式成立,原式得证。
2、11设随机变量 与 的联合概率空间为
定义一个新随机变量 (普通乘积)。
H =H
H =H
H =H -H
根据对称性,把X与Y互换得
H =H
H =H -H
(3)
根据对称性,得
根据对称性得
2、17设信源发出二次扩展消息 ,其中第一个符号为A、B、C三种消息,第二个符号为D、E、F、G四种消息,概率 与 如下:
A
B
C
1/2
1/3
1/6
D
1/4
3/10
1/6
E
1/4
1/51/2ຫໍສະໝຸດ F可得,该排列发生所给出的信息量为
bit
dit
(2)设事件B为从中抽取13张牌,所给出的点数互不相同。
扑克牌52张中抽取13张,不考虑排列顺序,共有 种可能的组合。13张牌点数互不相同意味着点数包括A,2,…,K,而每一种点数有4种不同的花色意味着每个点数可以取4中花色。所以13张牌中所有的点数都不相同的组合数为 。因为每种组合都就是等概率发生的,所以
2、23设信源为
试求:
(1)信源的熵、信息含量效率以及冗余度;
(2)求二次与三次扩展信源的概率空间与熵。
解:(1)
(2)假设X为DMS,则
可得二次扩展信源的概率空间
2次扩展信源的熵为
三次扩展信源的概率空间及熵为
2、18设有一个信源,它产生0,1符号的信息。它在任意时间而且不论以前发生过什么符号,均按 的概率发出符号。
(1)计算熵 、 、 、 、 以及 ;
(2)计算条件熵 、 、 、 、 、 、 、 以及 ;
(3)计算互信息量 、 、 、 、 以及 ;
解(1)
bit/symbol
bit/symbol
可得 的概率空间如下
由 得
由对称性可得
(2)
H -
H =H -H
根据对称性,
H =H
H =H -H
H =H -H
根据对称性,
则 bit
2、7设信源为
求 ,井解释为什么 ,不满足信源熵的极值性。
解:
bit/symbol
不满足极值性的原因就是 ,不满足概率的完备性。
2、8大量统计表明,男性红绿色盲的发病率为7%,女性发病率为0、5%,如果您问一位男同志就是否为红绿色盲,她回答“就是”或“否”。
(1)这二个回答中各含多少信息量?
1/4
1/5
1/6
G
1/4
3/10
1/6
求二次扩展信源的联合熵 。
解:联合概率为
可得X,Y的联合概率分布如下:
A
B
C
D
1/8
1/10
1/36
E
1/8
1/15
1/12
F
1/8
1/15
1/36
G
1/8
1/10
1/36
所以
2、19设某离散平稳信源 ,概率空间为
并设信源发出的符号只与前一个相邻符号有关,其联合概率为 如下表所示:
根据题意可得状态的一步转移矩阵
状态极限概率 满足

可以解得
,
该一阶马尔可夫信源的熵为
(3)黑白消息信源的剩余度为
一阶马尔可夫信源的剩余度为
由前两小题中计算的 与 比较可知
该结果说明:当信源的消息(符号)之间有依赖时,信源输出消息的不确定性降低。所以,信源消息之间有依赖时信源熵小于信源消息之间无依赖时信源熵。这表明信源熵反映了信源的平均不确定性的大小。而信源剩余度反映了信源消息依赖关系的强弱,剩余度越大,信源消息之间依赖关系就越大。
相关文档
最新文档