05预备知识:信息论初步
第二章 基础知识信息论初步

/2
/ 2
A n Sa T T
2018/10/17 11
连续的周期信号具有离散频谱 ------傅氏级数 X ( jk0 ) x(t )
--0 --t
0
Tp
2 0 Tp
1 正 : X ( jk 0 ) Tp
反 : x (t )
2018/10/17
2018/10/17 10
A 例:P (t)= T 0
T /2
nT-
2
t nT+ 其它
2
1 -jnot 解:PT P (t)e dt T T T / 2 1 -jnot Ae dt T / 2 Ae T -jno
-jnot
/2
2018/10/17 5
信号与系统部分
H ( )
h(t )e
jt
dt
h(t )
2018/10/17
6
H ( )e
jt
d
要搞清楚的三个问题
1、输入信号、输出信号、噪声分别具有 的特性和表示方式; 2、系统中输入信号、输出信号、噪声之 间的关系。 3、系统具有什么特性,信号的传输才处 于最佳状态。
F ( ) F ( ) F ( ) E ( ) 同理:F R W ()
2
⑶信号的自相关函数在原点的值等于信号的能量/功率。
R 0 = f 2 (t )dt E
1 2 R 0 =lim f (t )dt P T T T / 2
规一化能量(电阻值1W) E
信息论基础知识

信息论基础知识在当今这个信息爆炸的时代,信息论作为一门重要的学科,为我们理解、处理和传输信息提供了坚实的理论基础。
信息论并非是一个遥不可及的高深概念,而是与我们的日常生活和现代科技的发展息息相关。
接下来,让我们一同走进信息论的世界,揭开它神秘的面纱。
信息是什么?这似乎是一个简单却又难以精确回答的问题。
从最直观的角度来看,信息就是能够消除不确定性的东西。
比如,当我们不知道明天的天气如何,而天气预报告诉我们明天是晴天,这一消息就消除了我们对明天天气的不确定性,这就是信息。
那么信息论又是什么呢?信息论是一门研究信息的量化、存储、传输和处理的学科。
它由克劳德·香农在 20 世纪 40 年代创立,为现代通信、计算机科学、统计学等众多领域的发展奠定了基础。
在信息论中,有几个关键的概念是我们需要了解的。
首先是“熵”。
熵这个概念听起来可能有些抽象,但其实可以把它理解为信息的混乱程度或者不确定性。
比如说,一个完全随机的字符串,其中每个字符的出现都是完全不确定的,它的熵就很高;而一个有规律、可预测的字符串,其熵就相对较低。
信息的度量是信息论中的一个重要内容。
香农提出了用“比特”(bit)作为信息的基本度量单位。
一个比特可以表示两种可能的状态(0 或1)。
如果一个事件有8 种等可能的结果,那么要确定这个事件的结果,就需要 3 个比特的信息(因为 2³= 8)。
信息的传输是信息论关注的另一个重要方面。
在通信过程中,信号会受到各种噪声的干扰,导致信息的失真。
为了保证信息能够准确、可靠地传输,我们需要采用一些编码和纠错技术。
比如,在数字通信中,常常使用纠错码来检测和纠正传输过程中产生的错误。
信息压缩也是信息论的一个重要应用。
在数字化的时代,我们每天都会产生大量的数据,如图片、音频、视频等。
通过信息论的原理,可以对这些数据进行压缩,在不损失太多有用信息的前提下,减少数据的存储空间和传输带宽。
再来说说信息的存储。
《信息论基础》课件

2
信息论与数学中的概率论、统计学、组合数学等 学科密切相关,这些学科为信息论提供了重要的 数学工具和理论基础。
3
信息论与物理学中的量子力学、热力学等学科也 有密切的联系,这些学科为信息论提供了更深层 次的理论基础。
信息论未来发展趋势
信息论将继续深入研究量子信 息论和网络信息论等领域,探 索更高效、更安全的信息传输
和处理技术。
随着人工智能和大数据等技 术的快速发展,信息论将在 数据挖掘、机器学习等领域
发挥更大的作用。
信息论还将继续关注网络安全 、隐私保护等问题,为构建安 全可靠的信息社会提供重要的
理论支持。
2023
REPORTING
THANKS
感谢观看
海明码(Hamming Code): 一种能够纠正一位错误的线性 纠错码。
里德-所罗门码(ReedSolomon Code):一种广泛 应用于数据存储和通信领域的 强纠错码。
差错控制机制
前向纠错(FEC)
01
在发送端采用纠错编码,使得接收端能够自动纠正传输过程中
的错误。
自动重传请求(ARQ)
02
接收端检测到错误后请求发送端重传数据,直到接收正确为止
常见信道编码技术
线性分组码
将信息序列划分为若干组,对每组进行线性 编码,常见的有汉明码、格雷码等。
循环码
将信息序列进行循环移位后进行编码,常见的有 BCH码、RS码等。
卷积码
将信息序列进行卷积处理后进行编码,常见 的有Convolutional Code等。
2023
PART 04
信息传输与错误控制
。
混合纠错(HEC)
03
结合前向纠错和自动重传请求,以提高数据传输的可靠性和效
信息论初步.

3.熵在TIM中的用途
Feature selection:
If
we use only a few words to classify docs, what kind of words should we use? P(C| “computer”=1) v.s. p(C | “the”=1): which is more random? (C is the category of the topics)
Relative entropy What if we encode X with a code optimized for a wrong distribution q? How many bits would we waste? p( x)
D( p || q) H ( p, q) H ( p) p( x) log
i 1
N
1 if x y 0 o.w.
~ p ( x) c( x) / N
L(Y ) p( X yi )
i 1
log L(Y ) log p( X yi ) c( x) log p( X x) N p( x) log p( x)
i 1 x x
1.最优编码
.最优编码
1.最优编码
2.自信息
一个信源可按某种概率发出若干不同的信号,每 个信号带有的信息量称为其自信息。
信源:随机变量;信号:随机变量的取值
基于定性分析,自信息的特性应当是
非负 递增
具有这样的特性的函数有很多,人们构造出如下 定义式:
ωn :随机变量X的某个取值;P(ωn ):X取该值的概率
3.熵
(完整word版)信息论基础理论及应用

信息论形成的背景与基础人们对于信息的认识和利用,可以追溯到古代的通讯实践可以说是传递信息的原始方式。
随着社会生产的发展,科学技术的进步,人们对传递信息的要求急剧增加。
到了20世纪20年代,如何提高传递信息的能力和可靠性已成为普遍重视的课题。
美国科学家N.奈奎斯特、德国K.屈普夫米勒、前苏联A.H.科尔莫戈罗夫和英国R.A.赛希尔等人,从不同角度研究信息,为建立信息论做出了很大贡献。
信息论是在人们长期的通信工程实践中,由通信技术和概率论、随机过程和数理统计相结合而逐步发展起来的一门学科。
信息论的奠基人是美国伟大的数学家、贝尔实验室杰出的科学家 C.E.香农(被称为是“信息论之父”),他在1948年发表了著名的论文《通信的数学理论》,1949年发表《噪声中的通信》,为信息论奠定了理论基础。
20世纪70年代以后,随着数学计算机的广泛应用和社会信息化的迅速发展,信息论正逐渐突破香农狭义信息论的范围,发展为一门不仅研究语法信息,而且研究语义信息和语用信息的科学。
近半个世纪以来,以通信理论为核心的经典信息论,正以信息技术为物化手段,向高精尖方向迅猛发展,并以神奇般的力量把人类社会推入了信息时代。
信息是关于事物的运动状态和规律,而信息论的产生与发展过程,就是立足于这个基本性质。
随着信息理论的迅猛发展和信息概念的不断深化,信息论所涉及的内容早已超越了狭义的通信工程范畴,进入了信息科学领域。
信息论定义及概述信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。
核心问题是信息传输的有效性和可靠性以及两者间的关系。
它主要是研究通讯和控制系统中普遍存在着信息传递的共同规律以及研究最佳解决信息的获限、度量、变换、储存和传递等问题的基础理论。
基于这一理论产生了数据压缩技术、纠错技术等各种应用技术,这些技术提高了数据传输和存储的效率。
信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。
信息论基础教学课件ppt信息论基础概述信息论基础概论

§1.2.1 通信系统模型
例如,奇偶纠错 将信源编码输出的每个码组的尾补一个1或0 当传输发生奇数差错,打乱了“1”数目的奇偶性,就 可以检测出错误。
34
§1.2.1 通信系统模型
(a) 无检错
(b) 可检错 (奇校验) (c) 可纠错(纠一个错)
图1.4 增加冗余符号增加可靠性示意图
35
§1.2.1 通信系统模型
信源的消息中所包含的信息量 以及信息如何量度
核心 问题
29
§1.2.1 通信系统模型
编码器(Encoder)
编码器的功能是将消息变成适合于信道传输的信号 编码器包括:
信源编码器(source encoder) 信道编码器(channel encoder) 调制器(modulator)
信源编码器
信道编码器
调制器
功能:将编码器的输出符号变成适合信道传输的信号 目的:提高传输效率 信道编码符号不能直接通过信道输出,要将编码器的输 出符号变成适合信道传输的信号,例如,0、1符号变成 两个电平,为远距离传输,还需载波调制,例如,ASK, FSK,PSK等。
36
§1.2.1 通信系统模型
信道(channel)
13
§1.1.2 信息的基本概念
1949年,Weaver在《通信的数学》中解释香农的工 作时,把通信问题分成三个层次: 第一层:通信符号如何精确传输?(技术问题) 第二层:传输的符号如何精确携带所需要的含义?(语义问题) 第三层:所接收的含义如何以所需要的方式有效地影响行为? (效用问题)
14
§1.1.2 信息的基本概念
§1.1.2 信息的基本概念
信息的三个基本层次:
语法(Syntactic)信息 语义(Semantic) 信息 语用(Pragmatic)信息
05预备知识:信息论初步
I(Y, X) = I(X, Y)
平均互信息量I( , )是指从Y获得关于 获得关于X的 平均互信息量 (X,Y)是指从 获得关于 的 平均信息量。 ( , )是指发出X前 平均信息量。 I(Y,X)是指发出 前、后,Y的 的 不确定性减少的量,显然I( , ) ( , ) 不确定性减少的量,显然 (X,Y)= I(Y,X)
离散信源的平均信息量
H(x) = − ∑ p( x i ) log 2 p( x i )
i =1 N
• 可以证明: 可以证明:
–当离散信源中每个符号等概出现,且各符号出现 当离散信源中每个符号等概出现, 当离散信源中每个符号等概出现 为统计独立时,该信源的平均信息量最大。 为统计独立时,该信源的平均信息量最大。
信息认识--信息理论基础知识-一起来了解信息论
信息认识--信息理论基础知识-一起来了解信息论一起来了解信息论作者:蔡筱英 | 来源:信息方法概论 ]学习要点:信息论是研究信息的计量、发送、传递、交换、接收和储存的一门新兴学科。
信息论有狭义信息论与广义信息论之分。
狭义信息论由美国数学家、电机工程师商农在1948年创立的,其出发点是解决信息传递(通信)过程中的一系列理论问题。
因此,狭义信息论也叫统计通信理论。
广义信息论通常叫做信息科学。
信息论(information theory)是关于信息的本质和传输规律的科学的理论,是研究信息的计量、发送、传递、交换、接收和储存的一门新兴学科。
人类的社会生活是不能离开信息的,人类的社会实践活动不光需要对周围世界的情况有所了解并能做出正确的反应,而且还要与周围的人群沟通关系才能协调地行动。
这就是说,人类不仅时刻需要从自然界获得信息,而且人与人之间也需要进行通信,交流信息。
人类需要随时获取、传递、加工、利用信息,否则就不能生存。
人们获得信息的方式有两种;一种是直接的,即通过自己的感觉器官,耳闻、目睹、鼻嗅、口尝、体触等直接了解外界情况;一种是间接的,即通过语言、文字、信号等传递消息而获得信息。
通信是人与人之间交流信息的手段,语言是人类通信的最简单要素的基础。
人类早期只是用语言和手势直接进行通信,交流信息。
“仓颉造字”则使信息传递摆脱了直接形式,同时扩大了信息的储存形式,可算是一次信息技术的革命。
印刷术的发明,扩大了信息的传播范围和容量,也是一次重大的信息技术变革。
但真正的信息革命则是电报、电话、电视等现代通信技术的创造与发明,它们大大加快了信息的传播速度,增大了信息传播的容量。
正是现代通信技术的发展导致了关于现代通信技术的理论——信息论的诞生。
信息论的创始人是美国贝尔电话研究所的数学家仙农(C. E. Shannon,1916——) ,他为解决通信技术中的信息编码问题,把发射信息和接收信息作为一个整体的通信过程来研究,提出了通信系统的一般模型;同时建立了信息量的统计公式,奠定了信息论的理论基础。
(完整版)老师整理的信息论知识点
Chp02 知识点:自信息量:1)I ( x i )log p(x i )2)对数采纳的底不一样,自信息量的单位不一样。
2---- 比特( bit )、e---- 奈特(nat)、10---- 哈特( Hart)3)物理意义:事件x i发生从前,表示事件x i发生的不确立性的大小;事件 x i发生此后,表示事件 x i所含有或所能供给的信息量。
均匀自信息量(信息熵):1)H (x) E[ I (x i)]q p( x i ) log p( x i )i 12)对数采纳的底不一样,均匀自信息量的单位不一样。
2---- 比特 /符号、 e----奈特 /符号、 10---- 哈特 /符号。
3)物理意义:对信源的整体的不确立性的统计描绘。
表示信源输出前,信源的均匀不确立性;信源输出后每个消息或符号所供给的均匀信息量。
4)信息熵的基天性质:对称性、确立性、非负性、扩展性、连续性、递推性、极值性、上凸性。
互信息:p(x i | y j )1)I ( x i; y j)I (x i ) I ( x i | y j )logp( x i )2)含义:已知事件y j后所除去的对于事件x i的不确立性,对信息的传达起到了定量表示。
均匀互信息:1)定义:2)性质:结合熵和条件熵:各种熵之间的关系:数据办理定理:Chp03 知识点:依照不一样标准信源的分类:失散单符号信源:1)概率空间表示:X a1a2L a rP p a1p a2L p a rr0 p a i1,(i 1,2,L , r ); p a i 1i 12)信息熵:H ( x) E[ I (x i)]q p(x i ) log p( x i ) ,表示失散单符号信i 1源的均匀不确立性。
失散多符号信源:用均匀符号熵和极限熵来描绘失散多符号信源的均匀不确立性。
均匀符号熵:H N (X ) 1 H (X1X2...X N)N极限熵(熵率): H ( X )lim H N ( X )N(1)失散安稳信源(各维结合概率散布均与时间起点没关的信源。
信息论知识点总结
信息论知识点总结信息论是一门研究信息传递和处理的科学,主要涉及信息量度、信息特性、信息传输速率、信道容量、干扰对信息传输的影响等方面的知识。
以下是信息论的一些重要知识点:1. 信息量度:信息量是对信息的度量,用于衡量信息的多少。
信息的大小与随机事件的概率有关,熵是衡量随机变量分布的混乱程度,即随机分布各事件发生的信息量的期望值。
2. 信道容量:信道容量是描述信道传输信息能力的指标,表示信道在每秒内所能传输的最大信息量。
对于有噪声的信道,需要通过编码技术来达到信道容量。
3. 条件熵:条件熵是在给定某个条件下的熵,用于衡量在已知某个条件的情况下,随机变量的不确定性。
4. 相对熵(KL散度):相对熵是衡量两个概率分布之间的差异,也称为KL 散度。
如果两个分布相同,相对熵为0。
5. 信息传输速率:信息传输速率是指单位时间内传输的信息量,是评价通信系统性能的重要参数。
6. 干扰对信息传输的影响:在信息传输过程中,各种干扰因素会对信息传输产生影响,如噪声、失真、衰减等。
为了提高信息传输的可靠性和有效性,需要采取抗干扰措施。
7. 信息压缩:信息压缩是减少数据存储空间和提高数据传输效率的一种技术。
常见的压缩算法有Huffman编码、LZ77、LZ78等。
8. 纠错编码:纠错编码是一种用于检测和纠正错误的技术,广泛应用于通信和存储领域。
常见的纠错编码有奇偶校验、CRC等。
9. 加密编码:加密编码是一种保护信息安全的技术,通过对数据进行加密处理,防止未经授权的访问和泄露。
常见的加密编码有AES、RSA等。
以上是信息论的一些重要知识点,希望对您有所帮助。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
离散信源的平均信息量
H(x) = − ∑ p( x i ) log 2 p( x i )
i =1 N
• 可以证明: 可以证明:
–当离散信源中每个符号等概出现,且各符号出现 当离散信源中每个符号等概出现, 当离散信源中每个符号等概出现 为统计独立时,该信源的平均信息量最大。 为统计独立时,该信源的平均信息量最大。
信源熵H( )的三个物理意义: 信源熵 (X)的三个物理意义:
– – – 信源输出后,每个离散消息所提供的平均信息量 信源输出后,每个离散消息所提供的平均信息量 信源输出前,信源的平均不确定度 信源输出前,信源的平均不确定度 变量X的随机性 变量 的随机性
关于熵* 关于熵
热力学第二定律指出:热不可能独自地、 热力学第二定律指出:热不可能独自地、不付出 代价地从冷的物体传向热的物体。这就是说, 代价地从冷的物体传向热的物体。这就是说,在冷和 热这对矛盾中, 热这对矛盾中,高温物体可以自行将热运动传向低温 物体,低温物体却不能自行将热运动传向高温物体。 物体,低温物体却不能自行将热运动传向高温物体。 克劳修斯还引入了熵的概念来反映这种变化的运动过 程和方向。在一个不与外界发生相互作用, 程和方向。在一个不与外界发生相互作用,即不与外 界发生物质和能量交换的孤立系统中, 界发生物质和能量交换的孤立系统中,熵的变化总量 总是大于零或等于零。这就是熵增加原理, 总是大于零或等于零。这就是熵增加原理,熵的大小 反映了一个系统中微观粒子热运动所引起的无序程度。 反映了一个系统中微观粒子热运动所引起的无序程度。 一个系统从有序趋于无序,从不平衡到平衡, 一个系统从有序趋于无序,从不平衡到平衡,熵的值 也趋于极大。 也趋于极大。 • 信息=负熵; 信息=负熵; 缺乏信息= 熵=缺乏信息=无知
– r为通信系统的能力,单位是:符号/秒 为通信系统的能力,单位是:符号 秒 为通信系统的能力
接收到的平 均信息量
信源熵
由于干扰或 其它, 其它,损失 的部分
目标—平均接收的信 目标 平均接收的信 息量最大能达到多少
信道容量
• I(X,Y)可理解为信道的信息平均传输速率 ( , ) 单位为比特/符号 单位为比特 符号 • 定义 定义R=I(X,Y)r,为信道的信息传输速率 ( , ) ,为信道的信息传输速率 单位为比特/秒 单位为比特 秒
离散信源的信息量
• 离散信源只能产生有限种符号
x1, p(x x
1 2 2
, ),
L xn L p(x
n
),p(x
)
且有
∑
N
i=1
p( xi ) = 1
• 对有限个符号构成的消息,假定符号出现相 对有限个符号构成的消息, 互独立,其信息量为: 互独立,其信息量为:
I = − ∑ m i log 2 p( x i ) m i 为出现次数
I(Y, X) = H(Y) - H(Y/X)
条件熵H( 以后, 条件熵 (Y/X)表示发出随机变量 以后,对 )表示发出随机变量X以后 随机变量Y仍然存在的平均不确定性 仍然存在的平均不确定性。 随机变量 仍然存在的平均不确定性。如果信道中 不存在噪声,发送和接收端必存在确定关系。 不存在噪声,发送和接收端必存在确定关系。而 现在发出X后 不能完全确定Y, 现在发出 后,不能完全确定 ,显然是噪声引起 的,H(Y/X)又称为噪声熵。 ( )又称为噪声熵。
信息的度量
I ( x i ) = log a 1 = − log a p ( x i ) p( x i )
• P(x)=1→I=0;P(0)=0→I=∞ → ; → ∞ • 若干相互独立事件构成的消息, 所含信息量 若干相互独立事件构成的消息 , 等于各独立事件信息量之和。 等于各独立事件信息量之和。
高斯分布 均匀分布
p( x ) = H
max
1 − x 2 /( 2 σ e 2π σ
2
2
)
= log
σ
2π e
( bit )
2.4 信息论初步
• 2.4 信息论初步
– – – – 信息的度量 离散信源的信息量 连续信源的信息度量 信道容量和仙农公式
信道容量
X P(Y/X) ( ) Y
I(X, Y) = H(X) - H(X/Y)
1 3 3 1 1 1 1 1 H = − log 2 − log 2 − log 2 − log 2 8 8 8 4 4 4 4 8 ≈ 1 .9056 ( bit / 符号 ) I = 1 .9056 × 57 ≈ 109 ( bit )
熵与信源熵
熵概念来自热力学, 熵概念来自热力学,1864年由德国的克劳修斯 年由德国的克劳修斯 (Clausius)提出,它反映系统的微观混乱程度。 )提出,它反映系统的微观混乱程度。 1882年,玻尔兹曼(Boltzmann)发展了熵理论,并 年 玻尔兹曼( )发展了熵理论, 把熵解释为“失去的信息”。1948年美国人仙农 把熵解释为“失去的信息” 年美国人仙农 (Shannon)使用熵函数建立了通信的数学理论,熵 )使用熵函数建立了通信的数学理论, 的概念和方法从此被越来越广泛地应用。 的概念和方法从此被越来越广泛地应用。
8 I = 23 log 2 + 14 log 2 4 + 13 log 2 4 + 7 log 2 8 ≈ 109(bit ) 3
离散信源的平均信息量
H(x) = − ∑ p( x i ) log 2 p( x i )
i =1 N
• 信源的平均不确定性信源熵 • 信源输出消息的平均信息量等于信源熵 • 上例的平均信息量为: 上例的平均信息量为:
H(Y/X) = − ∑
i
∑
j
• 平均互信息量的定义: 平均互信息量的定义:
I(X, Y) = − ∑
i
∑
j
p ( x i , y j ) log 2
p( y j / x i ) p( x i )
条件熵与平均互信息量物理意义
X P(Y/X) ( ) Y NhomakorabeaI(X, Y) = H(X) - H(X/Y)
无穷大
1 p ( x ) log p ( x ) dx + log dx
∞
• 连续信源的相对熵
H(x) = − ∫
−∞
p ( x ) log p ( x ) dx
连续信源的信息度量(p19)
• 信源为什么分布时,连续信源熵最大? 信源为什么分布时,连续信源熵最大? – 峰值功率受限条件下: 峰值功率受限条件下: 1 p( x ) = x ∈ (− A , A ) 2 A H max = log 2 ( 2 A ) ( bit ) – 均方功率受限条件下: 均方功率受限条件下:
预备知识 (四)
信息论初步 通信原理第五讲
2.4 信息论初步
• 2.4 信息论初步
– – – – 信息的度量 离散信源的信息量 连续信源的信息度量 信道容量和仙农公式
关于信息论
信息论是研究信息的基本性质及度量方法, 信息论是研究信息的基本性质及度量方法, 研究信息的取得、 传输、 存贮、 研究信息的取得 、 传输 、 存贮 、 处理和变换 的一般规律的科学。 的一般规律的科学 。 信息论是由通信的发展 中产生的, 它已渗透到了化学、 物理学、 中产生的 , 它已渗透到了化学 、 物理学 、 生 物学和心理学等许多领域, 物学和心理学等许多领域 , 随着计算机技术 的发展, 信息的处理和利用也有了飞速的发 的发展 , 人类对信息重要性的认识, 展 , 人类对信息重要性的认识 , 也在逐步深 化。
H max = − ∑
i =1
N
1 1 log 2 = log 2 N N N
条件熵与平均互信息量
• 条件熵的定义: 条件熵的定义:
H(X/Y) = − ∑
i
∑
j
p ( x i , y j ) log 2 p ( x i / y j ) p ( x i , y j ) log 2 p ( y j / x i )
– I[P(x1),P(x2)…]=I[P(x1)]+I[P(x2)]+……
• 直观经验又告诉我们 , 当消息持续时间越长 , 直观经验又告诉我们, 当消息持续时间越长, 其信息量也随之增加。 其信息量也随之增加。
2.4 信息论初步
• 2.4 信息论初步
– – – – 信息的度量 离散信源的信息量 连续信源的信息度量 信道容量和仙农公式
I(Y, X) = I(X, Y)
平均互信息量I( , )是指从Y获得关于 获得关于X的 平均互信息量 (X,Y)是指从 获得关于 的 平均信息量。 ( , )是指发出X前 平均信息量。 I(Y,X)是指发出 前、后,Y的 的 不确定性减少的量,显然I( , ) ( , ) 不确定性减少的量,显然 (X,Y)= I(Y,X)
2.4 信息论初步
• 2.4 信息论初步
– – – – 信息的度量 离散信源的信息量 连续信源的信息度量 信道容量和仙农公式
连续信源的信息度量
• 连续信源的绝对熵
H(x) = lim − N →∞ ∆x → 0 = −∫
∞ −∞
∑
N
i −1
p ( x i ) ∆ x i log 2 [ p ( x i ) ∆ x i ]
i −1 N
离散信源的信息量
离散信源由0, 例:离散信源由 , 1, 2, 3四个符号组成,它们出 , , 四个符号组成 四个符号组成, 现的概率分别为3/8, 1/4, 1/4, 1/8,且每个符号的出现 现的概率分别为 , 都 是 独 立 的 。 试 求 某 消 息 201020130213001203210 100321010023102002010312032100120210的信息量 。 的信息量。 的信息量 此消息中, 出现 出现23次 出现14次 出现13 解:此消息中,0出现 次,1出现 次,2出现 出现 出现 出现7次 共有57个符号 个符号, 次,3出现 次,共有 个符号,故该消息的信息量为 出现