《信息论与编码技术》复习提纲复习题
信息论与编码复习题

一、填空题(共10小题,每题1分)1.即时码又称为(非延长码),有时叫做(异前缀码)。
d)。
2.码的纠检错能力取决于码字的(最小距离min3.如果信源为X,信宿为Y,那么信道疑义度为(),噪声熵为()。
4.把信息组原封不动地搬到码字前k位的(n,k)码就叫做(系统码)。
5.循环码的任何一个码字的循环移位仍是码字,因此用一个基底就足以表示循环码的特征。
所以描述循环码的常用数学工具是(码多项式)。
6.香农于1948年发表了(通信的数学理论),这是一篇关于现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
7.冗余度来自两个方面,一是(信源符号之间的相关性),二是(信源符号分布的不均匀性)。
8.差错控制的途径是:(增大信道容量C),(减小码率R),(增加码长N)。
9.信源编码的主要任务是(减少冗余,提高编码效率)。
10.汉明码是能纠正1个随机错误码元的完备码,它的码长n与监督位长度m(=n-k)之间的关系式为( )。
11.信道编码的主要目标是(提高信息传送的可靠性)。
12.信源可分为两大类,及()信源和()信源。
13.唯一可译码又分为()码和()码。
14.游程编码的码字通常由()和()组合而成。
15.从系统的角度,运用纠/检错码进行差错控制的基本方式有()、()和()。
16.常用的译码方法有()译码和()译码。
二、判断题(共10小题,每题1分)1.由于构成同一线性分组码空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集。
2.可以用生成多项式来描述任何线性分组码。
3.只要传信率R大于信道容量C,总存在一种信道码及解码器,可以以所要求的任意小的差错概率实现可靠通信。
4.码字长度i k符合克劳夫特不等式,是唯一可译码存在的充分必要条件。
5.对于m阶马尔科夫信源来说,在某一时刻出现的符号,取决于前面已出现的m个符号。
6.根据熵的可加性,序列的熵等于组成序列的各符号熵之和。
7.哈夫曼码在编码时充分考虑了信源符号分布的不均匀性和符号之间的相关性。
信息论与编码复习提纲

• 平均失真度
D = E[d(ai , bj )] = ∑∑ p(ai ) p(bj / ai )d(ai , bj )
i=1 j =1
n
m
信息率失真函数
• 信息率失真函数定义
R(D) = m in
p(bj / ai )∈P D
I ( X;Y)
• 信息率失真函数的定义域
Dmin = ∑ p ( xi ) mind ( xi , y j ) D max = min j
i =1 n
p( y j )
∑ p( y ) D
j =1 j
i j j
n
j
∑ p(a )d(a , b ) = D
i=1 i
n
信息率失真函数
• 信息率失真函数的值域 当D=Dmin时 R(D)=Rmax Dmin=0时 Rmax=H(X)(离散情况) 当D>=Dmax时 R(D)=Rmin=0 • 信息率失真函数是连续非负单调递减函数 • 保真度准则下的信源编码定理
, ∑p(a ) =1 ∑p(b ) =1, ∑p(b
i=1 i j =1 j j =1 n m m j
ai ) =1,
∑p(a
i=1
n
i
bj ) =1 ∑∑ p(aibj ) =1 ,
j =1 i=1
m
n
3
∑p(a b ) =p(b ), ∑p(a b ) =p(a )
i=1 i j j j =1 i j i
n
m
4 5
p(aibj ) = p(bj ) p(ai bj ) = p(ai ) p(bj ai )
当 与相 独 时 X Y 互 立
p(aibj ) = p(ai ) p(bj ) p(bj ai )=p(bj ),p(ai bj )=p(ai )
信息论与编码复习提纲

baa aba aab
011 010 11
3 3 2
aaa
00
码字
2
码长
root
方法
码字 码长
00 2
11 2
010 3
011 1000 1001 1010 1011 3 4 4 4 4
码字平均长度: LN=2.726; 信源符号平均编码长度:
信源信息熵: H(X)=-0.3log0.3-0.7log0.7=0.881
(3)平均符号熵:
HN =H(X1X2……XN) / N
第一部分、信息论基础
1.1 信源的信息理论
(4)序列信息熵的性质:
《1》条件熵不大于无条件熵,强条件熵不大于弱
条件熵:H(X1) ≥ H(X2|X1) ≥ H(X3|X1X2) ≥ …
…… ≥H (XN|X1X2……XN-1) 《2》条件熵不大于同阶的平均符号熵: HN ≥H (XN|X1X2……XN-1) 《3》序列越长,平均每个符号的信息熵就越小:
H(XY) 计算公式: I (X;Y) = H(X) – H(X|Y)= H(Y) – H(Y|X)= H(X) +H(Y)–H(XY)
第一部分、信息论基础
1.2 信道的信息理论
[例2]已知信源先验概率p(x)={0.7, 0.3},信道传输
矩阵 ;试计算各信息熵和互信息。
解:(1)信源熵: H(X)= -0.7log20.7 –0.3log20.3
H1 ≥ H2 ≥ H3 ≥ …… ≥H N
总之:H0 > H1 ≥ H2 ≥ H3 ≥ …… ≥HN ≥ H∞
(无记忆信源取等号。)
第一部分、信息论基础
1.1 信源的信息理论
信息论与编码复习

信息论与编码复习
去年考点(部分):
简答题:香农第一定理P106、香农第二定理P141
计算题:马尔可夫信源P37、香农编码P110、霍夫曼编码P111、费诺编码P115、平均错误概率P131(例6.3)、例5.10。
重点:
第二章:本章为基础性内容,主要是理解专业词语的含义,记住公式,可参考笔记。
第三章:
重点3.3节,特别是马尔可夫信源P37~P40,会画状态转移图,会求状态转移概率矩阵(例3.5 P38、例3.6 P40)。
第四章:
各种信道容量的计算P58(例4.1、4.2、4.3)、离散对称信道的判别和信道容量计算P61~P64。
第五章:
定长码、码的分类P91、定长码及定长编码定理P94、编码效率P97、Kraft和McMillan不等式、唯一可译码存在条件P100、编码效率及剩余度P108、变长码编码(例 5.5 P108、例5.6 P110、例5.7 P112、例5.8 P115、例5.9 P116)。
第六章:
最大后验概率译码准则、极大似然译码规则P131、平均错误概率P131(例6.3 P131)、编码效率P150、线性分组码P150(例6.6 、6.7、6.8 P154、例5.10 P161)。
信息论与编码复习题

第二章 复习题一、填空题1、信息的 可度量性 是建立信息论的基础。
2、 统计度量 是信息度量最常用的方法。
3、 熵 是香农信息论最基本最重要的概念。
4、事物的不确定度是用时间统计发生 概率的对数 来描述的。
5、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
6、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。
7、自信息量的单位一般有 比特、奈特和哈特 。
8、必然事件的自信息是 0 。
9、不可能事件的自信息量是 ∞ .10、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
11、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
12、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。
13、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。
14、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小。
15、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
二、判断题1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(X H .( 对 )2.必然事件和不可能事件的自信息量都是0(错) 3.信息就是一种消息。
( 错 )4、概率大的事件自信息量大。
错 ) 5、互信息量可正、可负亦可为零,(对 )6、信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。
错 )7、对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。
对 )8、自信息量是p (a i )的单调递减函数。
(对)9、单符号离散信源的自信息和信源熵都具有非负性。
(对)10、单符号离散信源的自信息和信源熵都是一个确定值。
(错)11、单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。
《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。
信息论与编码复习题1(1)

一、填空题1.设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___Pi=1/4___时,信源熵达到最大值,为__2bit_,此时各个消息的自信息量为____2bit_______。
2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3_____个随机错,最多能 纠正___INT(1.5)__个随机错。
3.克劳夫特不等式是唯一可译码___存在___的充要条件。
4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是_I (X :Y )=H (X )-H (X/Y )5.__信源__编码的目的是提高通信的有效性,_信道_编码的目的是提高通信的可靠性,__加密__编码的目的是保证通信的安全性。
6.信源编码的目的是提高通信的 有效性 ,信道编码的目的是提高通信的 可靠性 ,加密编码的目的是保证通信的 安全性 。
7.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8_____时,信 源熵达到最大值,为___3bit/符号_________。
8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越__小____。
9.信源的冗余度来自两个方面,一是信源符号之间的_相关性__,二是信源符号分布的 __不均匀性___。
10.最大后验概率译码指的是 译码器要在已知r 的条件下找到可能性最大的发码Ci 作为移码估值 。
11.常用的检纠错方法有__前向纠错__、反馈重发和混合纠错三种。
二、单项选择题1.下面表达式中正确的是( A )。
A.∑=ji j x y p 1)/( B.∑=ii j x y p 1)/(C.∑=jj j i y y x p )(),(ω D.∑=ii j i x q y x p )(),(2.彩色电视显像管的屏幕上有5×105个像元,设每个像元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独立。
信息论与编码期末复习(基本上涵盖了所有考点,有了这份资料,期末绝不会挂科)

信息论与编码期末复习(基本上涵盖了所有考点,有了这份资料,期末绝不会挂科)1填空题1、信息论研究的主要问题是如何提高信息传输系的性和性,对应这两个性能数字通讯系统量化指标分别为和。
2、若给定离散概率空间[X,p(x)]表示的信源,则该信源中的信源消息(事件)x的自信息量可表I(x)=;该信源平均自信息量(即信源的熵)可表示为H(X)=E[I(x)]= 。
3、在离散联合概率空间[XY,P(xy)] 上随机变量I(xy) 的数学期望H(XY)= ,若集合X与集合Y相互独立,则H(XY)= 。
4、若给定离散联合概率空间[XY,P(xy)],则x与y之间的互信息量I(x;y)= ;平均互信息量可用熵和条件熵表示即I(X;Y)= = ,其中条件熵H(X|Y)通常称为熵,条件熵H(Y|X) 称为____________熵;若集合X与集合Y相互独立,则H(X|Y) = ,H(Y|X) = ,平均互信息量I(X;Y)= 。
5、离散信源的冗余度是R表示信源消息的可压缩____________,设信源符号集的最大熵为Ho,实际熵为H∞,则冗余度R可表示为______________;信源编码目的就是通过减少或消除信源____________来提高信息传输效率,因此信源编码亦称__________性编码,而信道编码则称__________性编码。
6、对于连续随机变量,在峰值功率受限于P m的条件下,取得最大相对熵的最佳概率密度函数是一个恒值即W opt(x)=_________,称W(x)为__________分布,这时最大相对熵H cmax=__________。
7、对于平均功率受限,均值不为零的一维连续随机变量的方差为定值时,其取得最大相熵的最佳概率密度函数为_________ ,最大相对熵H cmax=__________。
正态分布,即Wopt(x)=8、假设任一随机变量X与一正态分布随机变量具有相同的相对熵Hc,则其等效正态分布的随机变量X的熵功率为P=;可以用信号平均功率和熵功率的相对差值_________来表示连续信源的冗余度。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是什么?2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。
5.先验熵、后验熵的区别?6.联合熵、条件熵和信息熵的关系。
7.互信息的大小如何计算?互信息的性质是什么?8.联合互信息、条件互信息、互信息之间的关系是什么?9.平均互信息的定义是什么?平均互信息的含义?平均互信息的性质?10.联合平均互信息、条件平均互信息和平均互信息的关系?11.损失熵和噪声熵的含义是什么?维拉图表示了哪些关系式?12.信道的传码率和传信率(信息率)的计算方法是什么?13.信道容量的定义是什么?信道容量的含义如何理解?14.无噪无损信道、有噪无损信道、无噪有损信道、对称信道的信道容量如何计算?㈢《连续信源和波形信道》题纲:I.连续信源的定义、数学模型、绝对熵、相对熵II.给定条件下,连续信源的最大熵III.熵功率IV.连续信道和波形信道的信道容量需掌握的问题:1.连续信源定义、数学模型是什么?2.连续信源熵的表达式是什么?相对熵和绝对熵的区别是什么?3.如何计算均匀分布、正态分布连续信源的最大熵?4.什么是波形信道?了解波形信道互信息、信道容量的求解思路。
5.香农公式是什么?物理意义是什么?第2章无失真信源编码题纲:I.基本概念1.编码2.二元码3.等长码4.变长码5.码的N次扩展码6.唯一可译码II.等长码III.变长码IV.无失真信源编码定理V.编码方法1.香农编码2.费诺编码3.霍夫曼编码需掌握的问题:1.编码的定义及编码相关术语。
2.信源编码的定义及目的是什么?3.解释二元码、等长码、变长码、唯一可译码。
4.变长码和定长码的区别是什么?用码树描述二者的差异,能够说明变长码和定长码各自的优劣。
5.描述香农第一定理及意义。
6.掌握香农编码、费诺编码、霍夫曼编码的步骤及特点,会计算编码效率。
7.了解游程编码和算术编码的思路。
第3章信道编码题纲:I.检错、纠错原理及方法、能力II.差错控制理论1.译码规则2.2种准则下的错误概率III.信道编码定理IV.编码方法1.简单的检错、纠错码2.线性分组码3.循环码需掌握的问题:1.信道编码的定义及目的是什么?2.检错原理是什么?3.差错控制方法有哪些?4.如何确定一种编码的检错、纠错能力?5.汉明距离是什么?汉明重量是什么?最小码距是什么?6.信道编码的效率如何确定?7.奇偶校验码的编码规则是什么?检错、纠错能力如何?8.译码规则的定义是什么?9.最大后验准则是什么?极大似然准则是什么?这两种准则下如何计算错误概率?10.错误概率与损失熵之间的关系是什么?11.描述香农第二定理及意义。
12.线性分组码的编码原理和校验原理是什么?13.循环码的编码原理和校验原理是什么?14.了解循环冗余校验码和卷积码的编码思路。
第4章信息率失真函数题纲:V.失真度VI.平均失真度VII.信息率失真函数VIII.信息率失真函数的性质IX.限失真信源编码定理需掌握的问题:1.失真度如何表示?2.四种常见失真度的形式分别是什么?分别用于什么场合?3.平均失真度如何计算?4.什么是保真度准则?5.什么是试验信道?6.信息率失真函数的定义是什么?7.信息率失真函数和信道容量的区别和联系是什么?8.信息率失真函数的性质是什么?9.定义域D min, D max,以及相应的R(D min), R(D max)如何计算?10.描述香农第三定理及意义。
11.了解预测编码和变换编码的思路。
一、填空题1.设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为___1/4___时,信源熵达到最大值,为__2__,此时各个消息的自信息量为__2 __。
2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3____个随机错,最多能纠正__1____个随机错。
存在___的充要条件。
4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是___(X;Y)=H(X)-H(X/Y)___。
5._信源___提高通信的有效性,_信道____目的是提高通信的可靠性,_加密__编码的目的是保证通信的安全性。
6.信源编码的目的是提高通信的有效性,信道编码的目的是提高通信的可靠性,加密编码的目的是保证通信的安全性。
7.设信源X包含8个不同离散消息,当且仅当X中各个消息出现的概率为__1/8__时,信源熵达到最大值,为___3____。
8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越_小___。
9.信源的冗余度来自两个方面,一是信源符号之间的__相关性__,二是信源符号分布的__不均匀性__。
10.最大后验概率译码指的是译码器要在已知r的条件下找出可能性最大的发码作为译码估值,即令=maxP( |r)_ __。
前向纠错___、反馈重发和混合纠错三种。
二、单项选择题1.下面表达式中正确的是(A )。
A.∑=j i j x y p 1)/( B.∑=i i j x y p 1)/( C.∑=j j j iy y x p )(),(ω D.∑=ii j i x q y x p )(),( ×105 个像元,设每个像元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独立。
每秒传送25帧图像所需要的信道容量(C )。
A. 50106 B. 75106 C. 125106 D. 250106 3.已知某无记忆三符号信源a,b,c 等概分布,接收端为二符号集,其失真矩阵为d=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡1 21 12 1,则信源的最大平均失真度max D 为( D )。
A. 1/3 B. 2/3 C. 3/3 D. 4/34.线性分组码不具有的性质是( C )。
A.任意多个码字的线性组合仍是码字B.最小汉明距离等于最小非0重量C.最小汉明距离为3D.任一码字和其校验矩阵的乘积c m H T =05.率失真函数的下限为( B )。
6.纠错编码中,下列哪种措施不能减小差错概率( D )。
A. 增大信道容量B. 增大码长C. 减小码率D. 减小带宽7.一珍珠养殖场收获240颗外观及重量完全相同的特大珍珠,但不幸被人用外观相同但重量仅有微小差异的假珠换掉1颗。
一人随手取出3颗,经测量恰好找出了假珠,不巧假珠又滑落进去,那人找了许久却未找到,但另一人说他用天平最多6次能找出,结果确是如此,这一事件给出的信息量( A )。
A. 0bitB. log6bitC. 6bitD. log240bit8.下列陈述中,不正确的是( D )。
A.离散无记忆信道中,H (Y )是输入概率向量的凸函数C.一般地说,线性码的最小距离越大,意味着任意码字间的差别越大,则码的检错、纠错能力越强9.一个随即变量x 的概率密度函数P(x)= x /2,V 20≤≤x ,则信源的相对熵为( C )。
10.下列离散信源,熵最大的是( D )。
A. H (1/3,1/3,1/3);B. H (1/2,1/2);C. H (0.9,0.1);D. H (1/2,1/4,1/8,1/8)11.下列不属于消息的是( B )。
12.为提高通信系统传输消息有效性,信源编码采用的方法是( A )。
13.最大似然译码等价于最大后验概率译码的条件是( D )。
A.离散无记忆信道B.无错编码14.下列说法正确的是( C )。
A.等重码是线性码C.码的最小汉明距离等于码的最小非0重量15.二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,u0:一个0发出 u1:一个1发出 v0 :一个0收到 v1:一个1收到则已知收到的符号,被告知发出的符号能得到的信息量是( A )。
A. H(U/V)B. H(V/U)C. H(U,V)D. H(UV)16. 同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为( B )。
A. -log36bitB. log36bitC. -log (11/36)bitD. log(11/36)bit17.下列组合中不属于即时码的是( A )。
A. { 0,01,011}B. {0,10,110}C. {00,10,11}D. {1,01,00}18.已知某(6,3)线性分组码的生成矩阵⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=011101110001111010G ,则不用计算就可判断出下列码中不是该码集里的码是( D )。