第2章 信源及其熵

合集下载

信息论与编码 第二章 信源与信息熵

信息论与编码 第二章 信源与信息熵

现概率是它自身的先验概率。
无记忆信源
{发出符号序列的无记忆信源
发出单个符号的无记忆信源
{
离散 连续
2.1.1 无记忆信源
发出单个符号的离散无记忆信源
——指信源每次只发出一个符号代表一个消息, 且消息的取值个数是有限的(或可列无限多个)。 例如扔骰子,每次实验结果必然是1~6点中的某一 个面朝上。每次实验的结果不随实验次数变化,也 不与先前的实验结果相关,因而该信源是单符号离
p( X1 , X 2 , X l , X L ) p( X l ) [ p( X )]L
l 1
L
2.1.2 有记忆信源
有记忆信源——在不同时刻发出的符号是相互依赖的。 发出符号序列的有记忆信源 ——每次发出1组含2个以上符号的符号序列来代表一 个消息的信源,且各符号之间是相互依赖的。
I=-log2(1/2m)=m bit
2.2.1 自信息量
自信息量I (xi)的特性:
⑴ I (xi)是非负值
⑵ 当p(xi) = 1时, I (xi) = 0
⑶ 当p (xi) = 0时, I (xi) =∞
⑷ I (xi)是先验概率p (xi)的单调递减函数,即 当p (x1)>p (x2)时, I (x1) < I (x2) ⑸可加性 : 两个独立事件的联合信息量等于它们分别的信 息量之和。
发出符号序列的无记忆信源
——每次发出1组含2个以上符号的符号序列来代表一 个消息的信源,且各符号之间没有统计关联性。
需要用随机序列(或随机矢量) X =(X1, X2,…, Xl, …, XL)来描 述信源输出的消息,用联合概率分布p(X1, X2,…, Xl, …, XL)来表 示信源特性。 p (X 1 ) p (X 2 ) … p (X l ) … p (X L ) 若离散信源输出的每个符号是统计独立的,且具有相同的概 率空间,则该信源是离散平稳无记忆信源,亦称为独立同分布 (independently identical distribution,i. i. d.)信源。

第2章 信源与信源熵

第2章 信源与信源熵

p( X 1 ) p( X 2 / X 1 ) p( X 3 / X 1 X 2 ) p( X 1 ) p( X 2 / X 1 ) p( X 3 / X 2 )
m阶马尔可夫信源
p( X L / X 1 X 2
2014-12-30
X L 1 ) p( X L / X L m
X L1 )
X a1 p a P 1 p a2 a2
n an p ai 0, p ai 1 p an i 1
当信源给定,其相应的概率空间就已给定;反之, 如果概率空间给定,这就表示相应的信源已给定。 信源可能的消息(符号)数是有限的,而且每次 必定选取其中一个消息输出,满足完备集条件。
无记忆信源 马尔可夫信源:某一个符号出现的概率只与前面一 个或有限个符号有关,而不依赖更前面的那些符号
2014-12-30 5
发出单个符号的无记忆信源
概率空间
概率
随机现象中事件发生的可能性大小是客观存在的,因此 可以对它进行量度。量度的数量指标就是概率。 样本空间 某事物各种可能出现的不同状态,即所有可能选择的消 息集合。 每个可能选择的消息是这个样本空间的一个元素。 概率空间
第2章 信源及信源熵
2.1 信源的描述和分类 2.2 离散信源熵和互信息 2.3 离散序列信源熵 2.4 冗余度
2.5 连续信源熵和互信息
2014-12-30 1
复习信息的概念
在信息论中,信源是发出消息的源,信源输出 以符号形式出现的具体消息。 如果符号是确定的而且预先是知道的,那么该 消息就无信息而言。只有当符号的出现是随机 的,预先无法确定,那么一旦出现某个符号就 给观察者提供了信息。 因此,应该用随机变量或随机矢量来表示信源, 运用概率论和随机过程的理论来研究信息,这 就是香农信息论的基本点。

信息论与编码2-信源及信源熵

信息论与编码2-信源及信源熵
随机英文字母信源,其中每个英文字母出现的概率是固定的。
实例3
随机天气状况信源,其中晴天、雨天、雪天出现的概率分别是0.7、0.2、0.1。
实例1
随机二进制信源,其中每个二进制符号(0或1)出现的概率为0.5。
离散无记忆信源的实例
离散有记忆信源
03
离散有记忆信源是输出符号序列中符号与符号之间存在记忆关系的离散随机序列。
应用场景
广泛应用于网络通信、金融交易、军事通信等领域,保障信息安全和隐私。
加密通信
03
应用景
广泛应用于通信系统、数据存储等领域,如CD、DVD、硬盘等存储设备的纠错编码。
01
纠错原理
通过在数据中添加冗余信息,检测和纠正数据传输过程中的错误。
02
常见纠错编码
如奇偶校验码、海明码、循环冗余校验码等,这些编码利用数学原理对数据进行校验,确保数据的正确性。
纠错编码
THANKS
感谢观看
离散有记忆信源的输出符号之间存在统计依赖关系,这种关系会影响信息熵的计算。
定义
性质
离散有记忆信源的定义与性质
计算方法
条件熵
联合熵
离散有记忆信源熵的计算
离散有记忆信源熵是描述信源不确定性的度量,可以通过统计模型来计算。具体计算方法包括条件熵和联合熵等。
条件熵是在给定前一个或多个符号条件下,输出符号的熵。
应用场景
广泛应用于文件存储、网络传输、多媒体处理等领域,如JPEG图片压缩、MP3音频压缩等。
数据压缩原理
通过去除数据中的冗余信息,将数据压缩至更小的存储空间,提高存储和传输效率。
数据压缩
加密原理
通过特定的加密算法将明文转换为密文,确保信息在传输过程中的保密性。

第二章信源及信源的熵

第二章信源及信源的熵
一般地,任意 m步转移概率为: ij (m, n ) P{Sn S j | Sm Si } n P ( Sn 表示状态变量, 时刻的状态| ) n
Pij的性质: Pij ( m, n ) 0,i, j S
Pij (m, n ) 1,
jS
i S
17
齐次马尔可夫信源的状态转移概率: 齐次:状态转移概率与时间无关
{
无记忆信源 有记忆信源
(1)单符号信源和符号序列信源 前述各离散或连续信源都是单符号信源----信源(试验) 每次发出一个符号(消息的长度为1)。 更多信源输出的消息需要用多个符号(即符号序列)来表示 ,如:随机取球试验,一次取两个球。多少种消息?
8
3种消息:“红红”、“白白”、“红白或白红”;用符号序 列表示 个消息。这种信源称为符号序列信源。 (2)符号序列信源用多维随机变量(随机矢量或随机序列)及 其概率空间来描述。如上面的离散符号序列信源:
7
X [0,1.5] pX (x) pX (x)
任意连续信源 的数学模型为
1.5
,
pX (x)d x 1
0
X [a,b] p X (x) p X (x)
b
,
a
pX (x)d x 1
2、按照信源发出的符号之间的关系分类: 信源
香农第二章信源及信源熵第一节信源的描述和分类第二节离散信源熵和互信息第二节离散信源熵和互信息3第三节连续信源的熵和互信息第四节离散序列信源的熵第五节冗余度第一节信源的描述和分类一消息的统计特征香农信息论运用概率论和随机过程的理论来研究信息

1、信息的定义:

信息是指各个事物运动的状态及状态变化的形式。 是事物运动状态或存在方式的不确定性的描述。 2、信息论的定义 关于信息的本质和传输规律的科学理论,是研究信息的度 量、发送、传递、交换、接收和储存的一门新兴学科。它为 各种具体的信息技术提供理论依据,而信息技术则以此为根 据去研究如何实现、怎样实现的问题。 3、信息、消息和信号的关系:

第2章 信源及其熵

第2章 信源及其熵

熵的含义



熵----考虑的是整个集合的统计特性,它从平均意义上来 表征信源的总体特征。 在信源输出前,信息熵H(X) 表示信源的平均不确定性; 在信源输出后,信息熵H(X)表示每个消息提供的平均信 息量; 信息熵H(X) 表征了变量X的随机特性。 例如,有两信源X、Y,其概率空间分别为:
例如,语音信号{X(t)} 、热噪声信号{n(t)}

离散无记忆平稳信源

离散平稳信源的特例,信源发出的符号都相互统计独 立,即各随机变量Xi (i=1,2,…,N)之间统计独立 性质:


独立->p (X )= p (X1, X2, …,XN)= p1(X1) · 2(X2)· · N(XN) p ·p

问题:这样的信源能输出多少信息? 每个消息的出现携带多少信息量?
信息的测度

考虑:


信息的测度(信息量)和不确定性消除的程度有关, 消除的不确定性=获得的信息量; 不确定性就是随机性,可以用概率论和随机过程来测 度,概率小->不确定性大; 概率小 ->信息量大,即信息量是概率的单调递减函 数; 信息量应该具有可加性; 用香农信息量公式来计算。
(1)它应是先验概率p(ai)的单调递减函数,即当 p (a1) > p (a2) 时,有 f [ p (a1)] < f [ p (a2) ] ; (2)当p (ai) =1时, f [ p (ai)] = 0 (3)当p (ai) =0时, f [ p (ai)] = (4)两个独立事件的联合信息量应等于它们分别的信息量之 和,即统计独立信源的信息量等于它们分别的信息量之和。
描述的信源X的各输出Xi间统计独立、且取值同一 例如:A={1,2,3},N=2。则XN为: 符号集A,则X为离散无记忆信源,称该信源输出 {11,12,13,21,22,23,31,32,33 } 的N维随机矢量X 为离散无记忆信源X的N次扩展 信源

信息论与编码第2章信源与熵

信息论与编码第2章信源与熵

三个信息单位比特bit、奈特nat、哈特Hart之间的 转换关系如下:
1 nat log 2 e 1.433 bit 1 Hart log 210 3.322 bit 1 bit 0.693 nat 1 bit 0.301 Hart
21
对数及常用公式
y log10 x x 10

描述信源消息或对信源建模,随机过程是一个有效的工具, 通过随机过程的特性来描述信源的特性。
3
信源输出的描述
信源
Xi为
X1, X2, X3, ……
{a1, a2, a3, …am}或(a,b)
信源发出消息,消息载荷信息,而消息又具有不确 定性,所以可用随机变量或随机序列(矢量)来描述 信源输出的消息,或者说用概率空间来描述信源。信 源的输出被抽象为一个随机变量序列(随机过程)。
12
混合信源


按信源输出时间和取值划分: 时间连续,取值连续或随机的,称之为随机波 形信源,表示为X(t)。 输出既有连续分量又有离散分量,称之为混合 信源。
重点研究离散信源产生消息的不确定性,不研 究信源的内部结构和消息的如何产生。
13
信源的分类
随机 变量 连续信源:可能输出的消息数是无限的或不可数的
19
自信息量定义

定义 2.1.1 任意随机事件的自信息量定义为该事 件发生概率的对数的负值。
1 I ( xi ) log log p( xi ) p( xi )

自信息量的单位取决于对数选取的底。 单位:比特bit、奈特nat、哈特Hart。

当对数的底取2时,单位为比特bit 当以自然数e为底时,单位为奈特nat 当以10为底时,单位为哈特hart

第2章信源及信源熵



3、确定性
只要信源符号集中有一个符号出现的概率为1,那么信源熵 就等于零。
H(1 , 0 ) = H(1 , 0 , 0 ) = H(1 , 0 , 0 ….0 ) = 0 确知事件,不存在不确定度,则H(X ) = 0
2、对称性 当变量P的顺序任意互换后, H(X)的值不变,即H(P1 , P2 , P3 …. Pn ) = H(P2 , P3 , P4 …. Pn , P1 ) 该性质表明:信源熵只与随机变量的总体结构有关,即与信 源的总体统计特性有关。 如果两个信源的总体统计特性相同(含有的符号数和概率分 布相同),那么两个信源就是相同的。
熵的性质
1、非负性 2、对称性 3、确定性 4、可加性 5、极值性 6、H(X/Y) ≤ H(X); H(Y/X) ≤ H(Y) 7、H(XY) ≤ H(X) + H(Y)

1、非负性 离散信源熵的值不会小于0,即 H(X) ≥ 0。 只有当随机变量是一个确知量(P(xi) = 1)时等号才成立。
信源熵H(X) 是从平均意义上来表征信源的总 体特征,可以表示信源的平均不确定度。
对于特定的信源(即概率空间给定),其信源 熵是一个确定的数值,不同的信源因统计特性 不同,其熵也不同。

通过例子了解信息熵的含义:
一个布袋内放100个球,其中80个为红球,20个为白球, 任摸取一个,猜测是什么颜色。
X

x1
x2
P
0.8 0.2
如果摸出红球,那么这一事件的自信息量为:
I (x1) = -log P (x1) = -log 0.8 bit
如果摸出白球,那么这一事件的自信息量为:
I (x2) = -log P (x2) = -log 0.2 bit

第2章信源熵--马尔科夫信源及极限熵

“基于马尔可夫链的我国城乡居民收入演进分析”
信源熵
四、马尔科夫信源及其极限熵
1、马尔科夫信源
定义
N维离散平稳信源符号序列中第N个符号只与前m (≤N-1)个符号相关,该信源为m阶马尔科夫信源。
马尔科夫信源是离散平稳有限记忆信源,其记忆 长度为m 。* m阶马尔科夫信源符号序列的长度N=m+1。
信源熵
信源熵
中华人民共和国
中国
*华人民*和国
*国
信源熵 抽象描述
实际信源抽象为N维离散平稳信源,H∞是其熵率, 即从理论上看,只要传送H∞就可以了。 但是这必须掌握信源的全部统计特性,这显然是 不现实的。实际中,只能掌握有限记忆长度m, 其熵率用Hm+1近似,即需要传送Hm+1 与理论值相比,多传送了Hm+1-H∞ 由于Hm+1>H∞,表现在信息传输上存在冗余。
信源熵
0.2P(s1 ) 0.5P(s3 ) 0 0.2P(s1 ) P(s 2 ) 0.5P(s3 ) 0 0.5P(s 2 ) P(s3 ) 0.2P(s 4 ) 0 0.5P(s 2 ) 0.2P(s 4 ) 0
完备性
P(s1 ) P(s2 ) P(s3 ) P(s4 ) 1
信源熵
定义
信源的m阶极限熵Hm+1与N-1阶极限熵H∞的相对差 为该信源的冗余度,也叫剩余度。
信源熵
马尔可夫链的应用 排队理论和统计学中的建模,还可作为信号模型用 于熵编码技术,如算术编码 著名的LZMA数据压缩算法就使用了马尔可夫链与 类似于算术编码的区间编码。 生物学应用, 人口过程,可以帮助模拟生物人口过程的建模。 隐蔽马尔可夫模型还被用于生物信息学,用以编 码区域或基因预测。 马尔可夫链最近的应用是在地理统计学 (geostatistics)中,被称为是“马尔可夫链地理 统计学”。仍在发展过程中。

第2章信源熵-概念及单符号离散信源熵


表示
x2 xn X x1 P(X) P(x ) P( x ) P( x ) 1 2 n
其中,0 P( x i ) 1, i 1,2,, n且 P( x i ) 1
i 1
n
例1
6 X 1 2 P(X) 1/ 6 1 / 6 1/ 6
I(x 4 ) log P(x 4 ) log( 1/ 8) log 8 3(bit )
信源熵
3、熵
定义
信源各消息自信息量的数学期望为该信源的熵, 也叫无条件熵,用H(X)表示。
表示
H(X) E[I( x i )] P( x i )I( x i ) P( x i ) log P( x i )
i 1 i 1
n
n
同理, (1 )P2 ( x i ) log[ P1 ( x i ) (1 )P2 ( x i )]
i 1
n
(1 )P2 ( x i ) log P2 ( x i )
i 1
n
信源熵
[P1 ( x i ) (1 )P2 ( x i )] log[ P1 ( x i ) (1 )P2 ( x i )]
信源熵
2、自信息量
假设单符号离散信源发出消息xi、xj 的概率 P(xi) < P(xj),那条消息具有更大的信 息量, xi 还是xj ?
信源熵
根据香农信息的概念,消息中具有不确定 性的成分才是信息,不确定性的成分越大, 或者说概率越小,信息量就越大,从这个 意义判断,消息xi 具有更大的信息量。
信源熵
离散信源又可以细分为: (1)离散无记忆信源:所发出的各 个符号之间是相互独立的,发出 的符号序列中的各个符号之间没 有统计关联性,各个符号的出现 概率是它自身的先验概率。 (2)离散有记忆信源:发出的各个 符号之间不是相互独立的,各个 符号出现的概率是有关联的。

第2章 信源及信源熵2


离散信源熵
例:一个布袋内放100个球,其中80个球是红
色的,20个球是白色的,若随机摸取一个球, 猜测其颜色,求平均摸取一次所能获得的自信 息量。
解: 依据题意,这一随机事件的概率空间为
X P


x1 0.8
x2 0.2
其中:x1表示摸出的球为红球事件, x2表示摸出的 球是白球事件 .


晴, 1/ 2
雨 1/ 2
H (X ) log 1 2比特 / 符号 4
H (Y ) log 1 1比特 / 符号 2
• 这种情况下,信源的不确定性最大,信息熵最大。 • 甲地比乙地提供更多的信息量。因为甲地可能
出现的消息数多于乙地可能出现的消息数。
例:电视屏上约有 500 × 600= 3×105个格点,
如果摸出的是红球,则获得的信息量是
I (x1)=-log2p (x1) = -log20.8 bit
如果摸出的是白球,则获得的信息量是
I (x2)=-log2p (x2) = -log20.2 bit
如果每次摸出一个球后又放回袋中,再进行 下一次摸取。则如此摸取n次,红球出现的次
数为np(x1)次,白球出现的次数为 np (x2)次。
条件熵H(X|Y)表示已知Y后,X的不确定度。
相应地,在给定X(即各个xi)条件下, Y集合的 条件熵H(Y|X)定义为
H (Y | X ) p(xi , y j )I ( y j | xi )
ij
p(xi , y j ) log p( y j | xi )
ij
几个概念
p(u0)=1/2, p(v0 |u0)=3/4,p(v0 |u1)=1/2 求:
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
例如,语音信号{X(t)} 、热噪声信号{n(t)}

离散无记忆平稳信源

离散平稳信源的特例,信源发出的符号都相互统计独 立,即各随机变量Xi (i=1,2,…,N)之间统计独立 性质:


独立->p (X )= p (X1, X2, …,XN)= p1(X1) · 2(X2)· · N(XN) p ·p
的取值A:{a1, a2,…, aq}是有限的或可数的,可用 一维离散型随机变量X来描述。 例:投硬币、书信、电报符号等等。

数学模型:设每个信源符号ai出现的(先验)概率
p(ai) (i=1,2,…,q) 满足:
p(a ) 1
i 1 i
q
a2 a3 ... ... aq X a1 p(a ) p(a ) p(a ) ... ... p(a ) 2 3 q p ( x) 1 概率空间能表征离散信源的统计特性,因此又称 概率空间为信源空间。

当记忆信源的记忆长度为m+1时,称这种有记忆 信源为m阶马尔可夫信源 若上述条件概率与时间起点 i 无关,信源输出的 符号序列可看成为时齐马尔可夫链,则此信源称 为时齐马尔可夫信源

更一般情况:随机波形信源

实际信源输出的消息常常是时间和取值都是连续的。 这类信源称为随机波形信源。
随机波形信源在某一固定时间 t0 的可能取值是连续 和随机的。对于这种信源输出的消息,可用随机过 程来描述。 例:语音信号X(t)、热噪声信号n(t)、电视图像信号 X(r(t),g(t),b(t))等时间连续函数。

平稳-> p1 (Xi) = p2 (Xi)=· · pN (Xi) -> p (Xi) ·=
p( X) p( X 1 X 2 X N ) p( X i )
i 1 N

设各随机变量Xi取值同一符号集A:{a1,a2,…,aq},则
p(x i ) p(ai1ai 2 ,..., aiN ) p(aik ), ik (1, 2,..., q)
I (ai ) f [ p(ai )]
I(ai)代表两种含义: (1)当事件ai发生之前,表示事件ai发生的不确定性
(2)当事件ai发生之后,表示事件ai所提供的信息量

某事件发生所含有的信息量应该是该事件发生的先验概率 的函数。即:
I (ai) = f [ p(ai)]

根据客观事实和人们的习惯概念,函数 f [ p(ai)] 应满足以 下条件:
满足



a
b
p( x)dx 1
p( x)dx 1
R
平稳随机序列信源

总体特点:
信源输出的消息由一系列符号序列所组成,可用N 维随机矢量 X=(X1,X2,…,XN)描述,且随机矢量X 的各维概率分布都与时间起点无关----平稳!

离散平稳信源:每个随机变量Xi (i=1,2,…,N) 都是离散型随机变量 例如,投掷硬币 连续平稳信源:每个随机变量Xi (i=1,2,…,N) 都是取值连续的随机变量
1/2
x2(阴)
1/4
x3(雨)
1/8
x4(雪)
1/8
解:据表所示,求出各事件发生所带来的自信息量有:
I ( x1 ) log 2 p( x1 ) 1(bit ) I ( x3 ) log 2 p( x3 ) 3(bit ) I ( x2 ) log 2 p( x2 ) 2(bit ) I ( x4 ) log 2 p( x4 ) 3(bit )
logb X loga X logb a
1 nat = 1.44bit , 1 hat = 3.32 bit;

一般计算都采用以“2”为底的对数,为了书写简洁, 常把底数“2”略去不写。
[例2.2.2] 某地某月份的气象资料如下表所示,求 相应事件的发生所带来的自信息量。
xi
p(xi)
x1(晴)
连续信源(单符号)

特点:
输出是单个符号(代码)的消息,输出
消息的符号集A的取值是连续的,可用一维的连 续型随机变量X 来描述。

例:语音信号、热噪声信号、测控系统中有关电压、 温度、压力等测得的连续数据等等。
R p (x)

数学模型: 连续型的概率空间。即:
X ( a , b ) p ( x) p ( x)
如果被告知摸出的是红球,那么获得的信息量是:
I (a1) =-log p(a1) =-log0.8= 0.32 (比特)
如被告知摸出来的是白球,所获得的信息量应为:
I (a2) = -log p(a2) = -log0.2 = 2.32 (比特)
平均摸取一次所能获得的信息量为 :
H(X)= p(a1) I (a1) + p(a2) I (a2) =0.72(比特/符号)
熵的含义



熵----考虑的是整个集合的统计特性,它从平均意义上来 表征信源的总体特征。 在信源输出前,信息熵H(X) 表示信源的平均不确定性; 在信源输出后,信息熵H(X)表示每个消息提供的平均信 息量; 信息熵H(X) 表征了变量X的随机特性。 例如,有两信源X、Y,其概率空间分别为:
k 1 N
N维随机矢量的一个取值, i=(ai1 ai2…aiN)
p(aik )是符号集A的 一维概率分布
X a1 若信源空间: p( x) p(a1 )

a2 p(a2 )
aq p(a3 ) ... ... p(aq ) a3 ... ...

对数函数满足上述条件:
1 I (ai ) f [ p(ai )] log r p(ai )
一点说明

计算自信息量时要注意有关事件发生概率的计算; 自信息量的单位取决于对数的底;

底为2,单位为“比特(bit, binary unit)”; 底为e,单位为“奈特(nat, nature unit)”; 底为10,单位为“哈特(hat, Hartley)”; 由换底公式:
该例说明,一个随机事件发生的概率越小,它的不 确定性就越大,那么当它发生时对外提供的自信息量 也就越大。
在一般情况下,收到某消息获得的信息量(即收到某消息 后获得关于某事件发生的信息量) =不确定性减少的量 =(收到此消息前关于某事件发生的不确定性)
- (收到此消息后关于某事件发生的不确定性)
对无噪声信道,收到某消息获得的信息量


例:汉字组成的中文序列中,只有根据中文的语法、
习惯用语、修辞制约和表达实际意义的制约所构成的中 文序列才是有意义的中文句子或文章。

所以,在汉字序列中前后文字的出现是有依赖的,不能 认为是彼此不相关的。其他自然语言如英文,德文等都 是如此.
m阶马尔可夫信源

不同时刻发出的符号间的依赖关系
p( xi | xi 2 xi 1 xi 1 xi 2 xi m x1 ) p( xi | xi 1 xi 2 xi m ) (i 1, 2, , N )

推论:


一. 自信息

设离散信源X的概率空间为:
X a1 p ( x) p (a ) 1

a2 p(a2 )
aq q p(ai ) 1 p(a3 ) ... ... p(aq ) i 1 a3 ... ...
称事件ai发生所含有的信息量为 ai 的自信息量。 定义为:
所组成,可用N维随机矢量 X=(X1,X2,…,XN)描述,且随机 矢量X 的各维概率分布都与时间起点无关----平稳!! 离散平稳信源 连续平稳信源 无记忆(独立)离散平稳信源 有记忆信源 m阶马尔可夫信源随机波形ຫໍສະໝຸດ 源离散信源(单符号)
特点:输出是单个符号(代码)的消息,符号集
描述的信源X的各输出Xi间统计独立、且取值同一 例如:A={1,2,3},N=2。则XN为: 符号集A,则X为离散无记忆信源,称该信源输出 {11,12,13,21,22,23,31,32,33 } 的N维随机矢量X 为离散无记忆信源X的N次扩展 信源

若X 取值为符号集i =(ai1ai2…aiN), 其中(i1 , i2 ,…,iN =1,2 , …,q),则离散无记忆信源的N次扩展信源的 数学模型是X信源空间的N重空间:


一个随机过程{x(t)}
一个样本{xi(t)} (一个自由度)
信源的分类及其数学模型
2.2

离散信源的信息熵其性质
讨论基本的离散信源(即输出为单个符号的消 息,且这些消息间两两互不相关)
基本的离散信源可用一维随机变量X来描述信 源的输出,信源的数学模型可抽象为: a2 a3 ... ... aq q X a1 p( x) p(a ) p(a ) p(a ) ... ... p(a ) p(ai ) 1 2 3 q i 1 1
=收到此消息前关于某事件发生的不确定性
=信源输出的某消息中所含有的自信息量
二. 信息熵

对一个信源发出不同的消息所含有的信息量也不同, 不能用它来作为整个信源的信息度量。
定义自信息的数学期望为平均自信息量Hr(X),称为 信息熵:
q 1 p(ai ) logr p(ai ) H r ( X ) E logr p(ai ) i 1 q 1 p(ai ) log p(ai ) 当r=2时: H ( X ) E log p(ai ) i 1
X N 1 p( i ) p(1 )
相关文档
最新文档