14-信息论与编码-总复习
信息论与编码总复习

“信息论与编码”总复习1.消息、信号、信息的含义、定义及区别。
信息是指各个事物运动的状态及状态变化的方式。
消息是指包含信息的语言,文字和图像等。
信号是消息的物理体现。
消息是信息的数学载体、信号是信息的物理载体信号:具体的、物理的消息:具体的、非物理的信息:非具体的、非物理的同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。
同样,同一类型信号或消息也可以代表不同内容的信息2.信息的特征与分类。
1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容;2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识;3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理;4信息是可以量度的,信息量有多少的差别。
3.狭义信息论、广义信息论、一般信息论研究的领域。
狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。
它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。
广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。
包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。
概率信息:信息表征信源的不定度,但它不等同于不定度,而是为了消除一定的不定度必须获得与此不定度相等的信息量4.信息论的起源、历史与发展。
⏹1924年,Nyquist提出信息传输理论;⏹1928年,Hartly提出信息量关系;⏹1932年,Morse发明电报编码;⏹1946年,柯切尼柯夫提出信号检测理论;⏹1948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
5.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。
《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是什么?2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。
信息论与编码--复习提纲PPT课件

.
8
.
9
• 2、判断题10分,每题2分
• 3、简单分析题20分,每题5分
• 4、综合计算题50分,4个大题。
.
3
需掌握的知识点
• 1、自信息量的计算,P15,公式2.1.1,计 算自信息量时,计算器上用的log按钮是10 为底的,需*3.322比特,算出的信息量才是 以比特/符号为单位。
• 2、条件自信息量的计算,P16,公式2.1.3 • P16,例2.1.2,P40习题2.1—2.5。
.
7
• 12、信道编码 发现e个独立随机错误,码字 最小距离的要求;纠正t个独立随机错误, 码字最小距离的要求;发现e个独立随机错 误,同时纠正t个独立随机错误,码字最小 距离的要求P202;汉明距离P217;汉明码 P226的特点;线性分组码的生成矩阵P224; 卷积码编码P236-239。习题6.1,6.3,6.4, 6.5,6.10
.
6
• 10、信道容量的计算公式,P96公式4.5.3,4.5.4, 对称离散信道容量的计算,P99公式4.5.9,什么 样的信道是对称信道,准对称信道?P98对称离 散信道的4矩阵例子。二进制对称信道的计算, P100上的公式。
• 11、香农编码,哈夫曼编码的步骤,平均码长, 编码效率的计算公式。为了获得同样的编码效率, 定长码需要的码长比变长码大得多。哈夫曼编码 不唯一。
• 关于熵与概率的各种计算关系,见P30例2.3.3
.
5
• 6、N次扩展信源的熵P47,公式3.3.7。习 题2.7。
• 7、会根据状态转移图,计算马尔可夫信源 的熵,P59例3.5.3,习题3.8
• 8、平均互息量的计算,P79公式4.2.7, P84例4.2.2
信息论与编码复习题

一、填空题(共10小题,每题1分)1.即时码又称为(非延长码),有时叫做(异前缀码)。
d)。
2.码的纠检错能力取决于码字的(最小距离min3.如果信源为X,信宿为Y,那么信道疑义度为(),噪声熵为()。
4.把信息组原封不动地搬到码字前k位的(n,k)码就叫做(系统码)。
5.循环码的任何一个码字的循环移位仍是码字,因此用一个基底就足以表示循环码的特征。
所以描述循环码的常用数学工具是(码多项式)。
6.香农于1948年发表了(通信的数学理论),这是一篇关于现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
7.冗余度来自两个方面,一是(信源符号之间的相关性),二是(信源符号分布的不均匀性)。
8.差错控制的途径是:(增大信道容量C),(减小码率R),(增加码长N)。
9.信源编码的主要任务是(减少冗余,提高编码效率)。
10.汉明码是能纠正1个随机错误码元的完备码,它的码长n与监督位长度m(=n-k)之间的关系式为( )。
11.信道编码的主要目标是(提高信息传送的可靠性)。
12.信源可分为两大类,及()信源和()信源。
13.唯一可译码又分为()码和()码。
14.游程编码的码字通常由()和()组合而成。
15.从系统的角度,运用纠/检错码进行差错控制的基本方式有()、()和()。
16.常用的译码方法有()译码和()译码。
二、判断题(共10小题,每题1分)1.由于构成同一线性分组码空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集。
2.可以用生成多项式来描述任何线性分组码。
3.只要传信率R大于信道容量C,总存在一种信道码及解码器,可以以所要求的任意小的差错概率实现可靠通信。
4.码字长度i k符合克劳夫特不等式,是唯一可译码存在的充分必要条件。
5.对于m阶马尔科夫信源来说,在某一时刻出现的符号,取决于前面已出现的m个符号。
6.根据熵的可加性,序列的熵等于组成序列的各符号熵之和。
7.哈夫曼码在编码时充分考虑了信源符号分布的不均匀性和符号之间的相关性。
信息论与编码复习期末考试要点

30
1
1
2 W1
2W3
W1
Wi pij Wj
i
1 4W1
13W2
3 4
W3
15W4
W2
W3
2 3
W2
4 5
W4
W4
W1 W2 W3 W4 1
• 稳态分布概率
W 1 3 3 5 , W 2 3 6 5 , W 3 1 2 3 3 3 6 5 5 ,1 3 W 3 6 4 5 1 4 7 4 3 6 5 1 5 7 4 3 9 5
14
三、互信息
• 互信息
• 定义为 xi的后验概率与先验概率比值的对数
I(xi;yj)lo2gp(p x(ix|iy)j)
• 互信息I(xi;yj):表示接收到某消息yj后获得 的关于事件xi的信息量。
15
平均互信息
• 平均互信息定义
I ( X ; Y ) H ( X ) H ( X |Y ) H ( Y ) H ( Y |X )
I(X ; Y ) H (X ) H (Y )
38
• 2)无嗓有损信道 –多个输入变成一个输出(n>m)
p(bi | aj ) 1或0
p(ai
|
bj
)
1或0
• 噪声熵H(Y|X) = 0 • 损失熵H(X|Y) ≠ 0
I(X ; Y )H (Y )H (X )
Cm axI(X ;Y )m axH (Y ) p(a i) 39
加密
y 信道编码
k 加密 密钥
z
信
解密 密钥
道 z'
信宿 v
信源解码
x' 解密
y'
信道解码
信息论与编码复习重点整理(1页版)

1第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.第2章 信源及信息量1. 单符号离散信源数学模型2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=-log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值. 5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
信息论与编码复习总结
信息论与编码复习总结题型:填空、解答、计算1、编码:无失真与限失真信源编码定理编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真三大定理:无失真信源编码定理(第一极限定理)(可逆)信道编码定理(第二极限定理)限失真信源编码定理(第三极限定理)(不可逆)Shannon(香农)信息论:在噪声环境下,可靠地、安全地、有效地传送信息理论。
通信系统模型方框图:信道的种类很多,如电信中常用的架空明线、同轴电缆、波导、光纤、传输电磁波的空间等都是信道。
也可以从信道的性质或其传送的信号情况来分类,例如:无干扰信道和有干扰信道、恒参信道和变参信道、离散信道(Discrete Channel)和连续信道(Continuous Channel)、单用户信道和多用户信道等。
信源的描述:通过概率空间描述平稳包含齐次,而齐次不包含平稳(重要,第二章计算题)定义:若齐次马尔可夫链对一切i,j存在不依赖于i的极限,则称其具有遍历性,称为平稳分布(如下)pj设有一齐次马尔可夫链,其状态转移矩阵为P,其稳态分布为w j=p(s j)自信息量的特性:p(x i)=1,I(x i)=0; p(x i)=0,I(x i)=∞; 非负性;单调递减性;可加性;定义:联合概率空间中任一联合事件的联合(自)信息量为:定义:对于给定离散概率空间表示的信源,在出现y事件后所提供有关事件x的信息量定义互信息,单位为比特信道模型:二进制离散信道BSC;离散无记忆信道DMC;波形信道信源编码器的目的:是使编码后所需的信息传输率R尽量小。
信源编码:主要任务就是减少冗余,提高编码效率。
唯一可译码:(任意有限长的码元序列,只能被唯一地分割成一个个的码字,便称为唯一可译码){0,10,11}为唯一可译码,任意有限长码序列:100111000。
(分类)即时码和非即时码变长编码定理:(解答,重要) ???1、平均码长:2、根据信源各个符号的统计特性,如概率大的符号用短码,概率小的用较长的码,使得编码后平均码长降低,从而提高编码效率。
信息论与编码总复习
VS
奇偶校验位
奇偶校验位是添加到数据中的一个额外位 ,用于检测数据中的错误。根据数据的二 进制位数,可以选择奇校验或偶校验。
05
编码的应用
数据压缩
1 2 3
数据压缩
数据压缩是编码技术的重要应用之一,通过去除 数据中的冗余信息,减少数据的存储空间和传输 时间,提高数据传输效率。
压缩算法
常用的数据压缩算法包括哈夫曼编码、算术编码、 LZ77和LZ78等,这些算法通过不同的方式实现 数据的压缩和解压缩。
互信息与条件互信息
互信息的定义
互信息是两个随机变量之间的相关性度量。对于两个随机变量$X$和$Y$,其互信息定义为$I(X;Y) = sum_{x,y} P(X=x,Y=y) log_2 frac{P(X=x,Y=y)}{P(X=x)P(Y=y)}$。
条件互信息的定义
条件互信息是给定一个随机变量条件下,另一个随机变量的不确定性减少的量度。对于两个随机变量$X$ 和$Y$以及第三个随机变量$Z$,其条件互信息定义为$I(X;Y|Z) = sum_{x,y,z} P(X=x,Y=y,Z=z) log_2 frac{P(X=x,Y=y|Z=z)}{P(X=x|Z=z)P(Y=y|Z=z)}$。
压缩比与效率
数据压缩比和压缩效率是衡量数据压缩算法性能 的重要指标,不同的应用场景需要选择合适的压 缩算法以满足需求。
加密通信
加密通信
编码技术在加密通信中发挥着重要作用,通过将明文转换为密文, 保护数据的机密性和完整性。
加密算法
常见的加密算法包括对称加密和公钥加密,这些算法利用数学函数 和密钥对数据进行加密和解密。
纠错码与检错码
纠错码不仅能够检测错误,还能够纠 正错误,而检错码只能检测错误。
信息论与编码复习题
信息论与编码复习题⼀、填空题1. 设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___1/4___时,信源熵达到最⼤值,为__2__,此时各个消息的⾃信息量为__2 __。
2.如某线性分组码的最⼩汉明距dmin=4,则该码最多能检测出___3____个随机错,最多能纠正__1____个随机错。
3.克劳夫特不等式是唯⼀可译码___存在___的充要条件。
4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是___(X;Y)=H(X)-H(X/Y )___。
5._信源___提⾼通信的有效性,_信道____⽬的是提⾼通信的可靠性,_加密__编码的⽬的是保证通信的安全性。
6.信源编码的⽬的是提⾼通信的有效性,信道编码的⽬的是提⾼通信的可靠性,加密编码的⽬的是保证通信的安全性。
7.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8__时,信源熵达到最⼤值,为___3____。
8.⾃信息量表征信源中各个符号的不确定度,信源符号的概率越⼤,其⾃信息量越_⼩___。
9.信源的冗余度来⾃两个⽅⾯,⼀是信源符号之间的__相关性__,⼆是信源符号分布的 __不均匀性__。
10.最⼤后验概率译码指的是译码器要在已知r 的条件下找出可能性最⼤的发码作为译码估值,即令 =maxP( |r)_ __。
11.常⽤的检纠错⽅法有__前向纠错___、反馈重发和混合纠错三种。
⼆、单项选择题1.下⾯表达式中正确的是(A )。
A.∑=ji j x y p 1)/( B.∑=ii j x y p 1)/(C.∑=jj j i y y x p )(),(ω D.∑=ii j i x q y x p )(),(2.彩⾊电视显像管的屏幕上有5×105个像元,设每个像元有64种彩⾊度,每种彩度⼜有16种不同的亮度层次,如果所有的彩⾊品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独⽴。
信息论与编码复习资料
1、在认识论层次上研究信息时,必须同时考虑到形式、(含义)和(效用)3个方面的因素2、如果从随机不确定性的角度来定义信息,信息反映(不确定性)的消除量。
3、信源编码的结果是(减少)冗余;而信道编码的手段是(增加)冗余。
4(1948)年,香农发表了著名的论文(通信的数学理论),标志着信息论的诞生。
5、信息商品是一种特殊商品,它有(客观)性、(共享)性、(时效)性和知识创造征。
6、对信源进行观查之前,对认识的主体来说,信源存在(先验)不确定性,观察之后,信源还存在(后验)不确定性。
7、联合符号(x i ,y j )的不确定性,等于(关于y j )不确定性加上(观查到y j 后还剩余)不确定性。
8、256个亮度构成的信源,其熵值最大为(log256=8)。
9、无条件熵(不小于)条件熵,条件多的熵(不大于)条件少的熵。
10、信源编码实质上是对信源进行信息处理,无失真信源编码只是信息处理的方法之一,除此外,还可以对信源进行(限失真)编码。
11、无失真编码对应于无损信道,有失真编码对应于(有噪)信道。
12、有失真编码的(失真范围)受限,所以又称为限失真编码;编码后的(信息率)得到压缩,因此属熵压缩编码。
13、满足(平均失真D D ≤失真度)的信道称为D 允许[试验]信道。
1、无失真编码只对信源的(冗余度)一进行压缩,而不会改变信源的熵,又称冗余度压缩编码。
2、无失真信源编码的作用可归纳为:(1)(符号变换); (2)(冗余度压缩)。
3、(含相同的码字)的码称为奇异码。
1、 研究信息论的主要目的是什么?答:能够高效、可靠、安全并且随心所欲地交换和利用各种各样的信息。
2、信息论的定义(狭义、广义)答:狭义:在信息可以度量的基础上,研究有效和可靠的传递信息的科学。
广义:包含通信的全部统一问题的研究,香农信息论、信号设计、噪声理论、信号检测与估值等。
3、信息有哪些特征?答:(1)接收者在收到信息前对它的内容未知;(2)信息是能使认识主体对某一事物的未知性或不确定性减少的有用的知识;3)信息可以产生、消灭、被携带、贮存及处理;(4)信息可以度量。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2013/11/26
2
总复习
第二章 信源熵
联合自信息量
当 X 和 Y 相互独立时,p(xiyj)=p(xi)p(yj)
2013/11/26
3
总复习
第二章 信源熵
条件自信息量:已知 yj 的条件下 xi 仍然存在的不确定度。
自信息量、条件自信息量和联合自信息量之间的关系
2013/11/26
4
总复习
第二章 信源熵
互信息量: yj 对 xi 的互信息量定义为的后验概率与先验概率比值的 对数。
2013/11/26
5
总复习
第二章 信源熵
观察者站在输出端:两个不确定度之差是不确定度被消除的部分, 即等于自信息量减去条件自信息量。
观察者站在输入端: 观察者得知输入端发出 xi 前、后对输出端出现 yj 的不确定度的差。
2013/11/26
27
总复习
第三章 信道容量
香农公式说明
当信道容量一定时,增大信道带宽,可以降低对信噪功率比的要求; 反之,当信道频带较窄时,可以通过提高信噪功率比来补偿。 当信道频带无限时,其信道容量与信号功率成正比。
2013/11/26
28
总复习
第三章 信道容量
有一个二元对称信道,其信道矩阵为
1
q 图2.1.8 二元对称信道信道范例
1
2013/11/26
14
ቤተ መጻሕፍቲ ባይዱ 总复习
第二章 信源熵
平均互信息量
当 q 不变 (固定信道特性) 时,可得 I(X;Y) 随输入概 率分布 p 变化的曲线,如 图2.1.9所示;二进制对称 信道特性固定后,输入呈 等概率分布时,平均而言 在接收端可获得最大信息 量。
I(X;Y) H(p)
q 0 0.5 1 图2.1.10 固定信源后平均互信息随信道变化的曲线
2013/11/26
16
总复习
第二章 信源熵
离散无记忆信源 X 的 N 次扩展信源的熵等于离散信源 X 的熵的 N 倍,即 H(X)=H(XN)=NH(X) 离散平稳信源:各维联合概率均与时间起点无关的完 全平稳信源称为离散平稳信源。 1. 二维离散平稳信源的熵为 H(X)= H(X1X2)
研究信息论的目的:主要是提高信息系统的可靠性、有效性和安
全性以便达到系统最优化。
2013/11/26
1
总复习
第二章 信源熵
自信息量 用概率测度定义信息量 设离散信源 X,其概率空间为 如果知道事件 xi 已发生,则该事件所含有的自信息定义为
单符号离散信源
当事件 xi 发生以前:表示事件 xi 发生的不确定性。 当事件 xi 发生以后:表示事件 xi 所含有(或所提供)的信息量
Ct 实际是信道的最大信息传输速率。
2013/11/26
25
总复习
第三章 信道容量
求信道容量的方法
当信道特性 p(yj /xi) 固定后,I(X;Y) 随信源概率分布 p(xi) 的变化 而变化。 调整 p(xi),在接收端就能获得不同的信息量。由平均互信息的 性质已知,I(X;Y) 是 p(xi) 的上凸函数,因此总能找到一种概率 分布 p(xi)(即某一种信源),使信道所能传送的信息率为最大。 C 和 Ct 都是求平均互信息 I(X;Y) 的条件极大值问题,当输入信 源概率分布 p(xi) 调整好以后, C 和 Ct 已与 p(xi) 无关,而仅仅 是信道转移概率的函数,只与信道统计特性有关;
H(X/Y)疑义度
H(X)
I(X;Y)
H(Y)
H(Y/X)噪声熵
2013/11/26
9
总复习
第二章 信源熵
联合熵 H(XY):表示输入随机变量 X,经信道传输到达 信宿,输出随机变量 Y。即收、发双方通信后,整个系 统仍然存在的不确定度。
2013/11/26
10
总复习
第二章 信源熵
最大离散熵定理 (极值性) :离散无记忆信源输出 n 个不 同的信息符号,当且仅当各个符号出现概率相等时 (即 p(xi)=1/n),熵最大。 H[p(x1),p(x2),…,p(xn) ]≤H(1/n,1/n,…,1/n)=log2n 出现任何符号的可能性相等时,不确定性最大。
2013/11/26
20
总复习
第二章 信源熵
设信源 通过一干扰信道,接收符号为 Y={y1,y2},信道传递矩阵为
(1) 信源 X 中事件 x1 和 x2 分别含有的自信息量。 (2) 收到消息yj(j=1,2)后,获得的关于 xi(i=1,2)的信息量。 (3) 信源 X 和信宿 Y 的信息熵。 (4) 信道疑义度 H(X/Y) 和噪声熵 H(Y/X)。 (5) 接收到 Y 后获得的平均互信息量。
18
2013/11/26
总复习
第二章 信源熵
信源熵的相对率η :η= H∞/H0 信源冗余度ξ: ξ=1-η=(H0-H∞)/H0 信源的冗余度表示信源可压缩的程度。
2013/11/26
19
总复习
第二章 信源熵
连续信源的熵为
上式定义的熵在形式上和离散信源相似,也满足离散熵 的主要特性,如可加性,但在概念上与离散熵有差异因 为它失去了离散熵的部分含义和性质。
2. 站在输入端:I(Y;X) —发出 X 前、后关于 Y 的先验不确定度减少的量。
3. 站在总体:I(X;Y) —通信前、后整个系统不确定度减少量。
2013/11/26
13
总复习
第二章 信源熵
BSC信道的平均互信息量
设二进制对称信道的输入概 率空间为
q 0 /q /q 0
转移概率如图2.1.8所示。
2013/11/26
21
总复习 P.128
第二章 信源熵
(1) 信源 X 中事件 x1 和 x2 分别含有的自信息量。 解:I(x1)=-log2 p(x1)=-log2 0.6=0.74 (bit) I(x2)=-log2 p(x2)=-log2 0.4=1.32 (bit) (2) 收到消息 yj(j=1,2) 后,获得的关于 xi(i=1,2) 的信息量。 解:p(y1/x1)=5/6 p(y2/x1)=1/6 p(y1/x2)=1/4 p(y2/x2)=3/4 p(x1y1)= p(x1)p(y1/x1)= 0.6×5/6=0.5 p(x1y2)= p(x1)p(y2/x1)= 0.6×1/6=0.1 p(x2y1)= p(x2)p(y1/x2)= 0.4×1/4=0.1 p(x2y2)= p(x2)p(y2/x2)= 0.4×3/4=0.3
观察者站在通信系统总体立场上:通信后的互信息量,等于前后不 确定度的差。
2013/11/26
6
总复习
第二章 信源熵
平均信息量—信源熵:自信息的数学期望。也称为信源的信息熵/信 源熵/香农熵/无条件熵/熵函数/熵。
信息熵的意义:信源的信息熵 H 是从整个信源的统计特性来考虑的。 它是从平均意义上来表征信源的总体特性的。对于某特定的信源, 其信息熵只有一个。不同的信源因统计特性不同,其熵也不同。 信源熵的三种物理含义 信源熵 H(X) 是表示信源输出后每个消息/符号所提供的平均信息 量; 信源熵 H(X) 是表示信源输出前,信源的平均不确定性; 用信源熵 H(X) 来表征变量 X 的随机性。
I(X;Y) 1-H(q)
0
0.5
p
图2.1.9 固定信道后平均互信息随信源变化的曲线
2013/11/26
15
总复习
第二章 信源熵
当固定信源特性 p 时, I(X;Y) 就是信道特性 q 的函 数,如图2.1.10所示;当二 进制对称信道特性 q=/q=1/2 时,信道输出端获得信息 量最小,即等于0。说明信 源的全部信息信息都损失 在信道中了。这是一种最 差的信道。
2013/11/26
7
总复习
第二章 信源熵
条件熵:是在联合符号集合 XY 上的条件自信息的数学期望。
2013/11/26
8
总复习
第二章 信源熵
信道疑义度—H(X/Y):表示信 宿在收到 Y 后,信源 X 仍然存 在的不确定度。是通过有噪信 道传输后引起的信息量的损失, 故也可称为损失熵。
噪声熵—H(Y/X):表示在已知 X 的条件下,对于符号集 Y 尚 存在的不确定性(疑义),这 完全是由于信道中噪声引起的。
10秒内信道可传递信息 15000×0.86=12900 (bit) <14000 (bit) 答:10秒钟内不能无失真传完。
2013/11/26
29
总复习
第四章 信息率失真函数
失真度 设离散无记忆信源为
2013/11/26
30
总复习
第四章 信息率失真函数
对每一对 (xi,yj),指定一个非负函数 d(xi,yj)≥0 i=1,2,…,n j=1,2,…,m 称 d(xi,yj) 为单个符号的失真度/失真函数。表示信源发 出一个符号 xi,在接收端再现 yj 所引起的误差或失真。
离散平稳有记忆信源的极限熵:当 N→∞ 时,平均符号熵取极限值 称之为极限熵或极限信息量。用 H∞表示,即
极限熵的存在性:当离散有记忆信源是平稳信源时,极限熵等于关 联长度 N→∞时,条件熵H(XN/X1X2…XN-1)的极限值,即
极限熵的含义:代表了一般离散平稳有记忆信源平均每发一个符号 提供的信息量。
(4) 信道疑义度 H(X/Y) 和噪声熵 H(Y/X)。