离散序列信源的熵
合集下载
离散信源的信息熵

信息熵
(1) 信息熵 ③信息熵与平均获得的信息量 • 信息熵是信源的平均不确定性的描述。在一般
情况下它并不等于平均获得的信息量。 • 只有在无噪情况下,接收者才能正确无误地接
收到信源所发出的消息,消除 H(X) 大小的平均 不确定性,所以获得的平均信息量就等于 H(X)。 • 在一般情况下获得的信息量是两熵之差,并不 是信源熵本身。
1
1
1
I ( xi y j ) log2 p( xi ) p( y j ) log2 p( xi ) log2 p( y j )
I( xi ) I( y j )
• 两个随机事件相互独立时,同时发生得到的信息量,等于 各自自信息量之和。
17/20
自信息
3)条件自信息
• 设 yj 条件下,发生 xi 的条件概率为 p(xi /yj),那么它的条件自信 息量 I(xi/yj) 定义为:
I ( xi
/
y j ) log2
1 p( xi /
yj)
• 表示在特定条件下(yj已定)随机事件 xi 所带来的信息量 • 同理,xi 已知时发生 yj 的条件自信息量为:
1 I ( y j / xi ) log2 p( y j / xi )
18/20
自信息
3) 条件自信息
• 自信息量、条件自信息量和联合自信息量之间的 关系
❖ 信源 Y 比信源 X 的平均不确定性大;
信息熵
❖ 本例结论(续)
❖ 信息熵反映的就是信源输出前平均不确定程度的大小。 ❖ 变量 Y 取 y1 和 y2 是等概率的,所以其随机性大。而变
量 X 取 x1 的概率比取 x2 的概率大很多,这时变量 X 的 随机性就小。 ❖ 因此 H(X) 反映了变量的随机性。
信息论与编码,曹雪虹,课件第2章-2

信息论与编码
第二章
信源与信息熵
内容
2.1 信源的描述和分类 2.2 离散信源熵和互信息 2.3 离散序列信源的熵 2.4 连续信源的熵和互信 2.5 冗余度
3
信源的分类
• 离散信源
– 指发出在时间和幅度上都是离散分布的离散 消息的信源,如文字、数字、数据等符号都 是离散消息。
{ 离散
{ { 信源
W1
W2
W3
W4
• 稳态分布概率
W1
3 35
,
W2
6 35
,
W3
6 35
,
W4
4 7
• 稳态后的符号概率分布
p(a1)
i
p(a1
|
si
)
p(siΒιβλιοθήκη )1 23 35
1 3
6 35
1 4
6 35
1 5
4 7
9 35
p(a2 )
i
p(a2
|
si )
p(si )
1 2
3 35
2 3
6 35
(1)1/2
s2 01
00 s1
(0)1/4
(0)1/3 (1)3/4
10 s3
(1)2/3
s4 0 2 / 3 0 4 / 5
11 (0)1/5
s4
(1)4/5
8
Wi pij W j
i
1 2
W1
1 2
W1
W1 W2 W3 W4 1
1 3
W2
2 3 W2
1 2
W3
3 4
W3
1 5
W4
4 5 W4
3 4
6 35
第二章
信源与信息熵
内容
2.1 信源的描述和分类 2.2 离散信源熵和互信息 2.3 离散序列信源的熵 2.4 连续信源的熵和互信 2.5 冗余度
3
信源的分类
• 离散信源
– 指发出在时间和幅度上都是离散分布的离散 消息的信源,如文字、数字、数据等符号都 是离散消息。
{ 离散
{ { 信源
W1
W2
W3
W4
• 稳态分布概率
W1
3 35
,
W2
6 35
,
W3
6 35
,
W4
4 7
• 稳态后的符号概率分布
p(a1)
i
p(a1
|
si
)
p(siΒιβλιοθήκη )1 23 35
1 3
6 35
1 4
6 35
1 5
4 7
9 35
p(a2 )
i
p(a2
|
si )
p(si )
1 2
3 35
2 3
6 35
(1)1/2
s2 01
00 s1
(0)1/4
(0)1/3 (1)3/4
10 s3
(1)2/3
s4 0 2 / 3 0 4 / 5
11 (0)1/5
s4
(1)4/5
8
Wi pij W j
i
1 2
W1
1 2
W1
W1 W2 W3 W4 1
1 3
W2
2 3 W2
1 2
W3
3 4
W3
1 5
W4
4 5 W4
3 4
6 35
信息论第二讲离散信源的熵

其中状态(xi, yj)为联合信源输出的一个状态。
nm
p(xi, yj ) 1
i1 j1
2020/6/14
20
⑵联合信源共熵的表达式:
联合信源的共熵:联合信源输出一个组合消息 状态(xi,yj)所发出的平均信息量。 联合信源的独立熵:
nm
H (X ,Y) p(xi,yj)logp(xi,yj)
⑴离散信源特性: 根据Shannon信息论的观点,信源要含
有一定的信息,必然具有随机性,即有 不确定性,可以用其概率来表示。
2020/6/14
1
⑵离散信源空间:
信源的符号(状态)随机地取值于一个离散
集 合 [X]= ( x1,x2,…xn ) 中 , 一 个 离 散 信 源
可以用一个离散随机变量的概率空间表示。
j1
(i1,2,...n)
2020/6/14
27
⑵转移矩阵描述
矩阵[P]称为转移矩阵或信道矩阵;表示为:
y1
y2
x1 p(y1/x1) p(y2/x1)…
… [P]= x2 p(y1/x2) p(y2/x2)
……
…
…
xn p(y1/xn) p(y2/xn) …
…
ym p(ym/x1) p(ym/x2) … p(ym/xn)
[P]=(p1,p2,…pn) 这种表示称为离散无记忆信源的信源空间。
信源空间必为一个完备空间, n
即其概率和为1。
pi 1
i1
2020/6/14
2
⑶信源数学模型描述的条件:
用信源空间(离散随机变量)来表示信源
的条件是信源符号(状态)的先验概率是 可知的,这是Shannon信息论的一个基本 假说。
2.2 离散信源的熵

第 二 章 基 本 信 息 论
§2.2 离散信源的熵
二、基本性质
4. 扩展性 limH( p1 , p2 ,⋯, pi − ε , ⋯, pN ,ε ) = H( p1 , p2 ,⋯, pN ) .
ε →0
说明虽然小概率事件的信息量很大, 说明虽然小概率事件的信息量很大,但由于该事件几乎 不会出现,故熵几乎不变。反映了熵的总体平均性。 不会出现,故熵几乎不变。反映了熵的总体平均性。 证
H( X) = H( p1 , p2 ,⋯, pN ) = 0.
表明确定性的信源不含有任何信息量, 表明确定性的信源不含有任何信息量,其信源熵必为 0。 。 证 (1) 若 pl = 1 , pk = 0 ( k ≠ l ) , ⇒
N i =1
N
H ( X ) = − ∑ pi log pi = 0 .
轻松一下吧 ……
11
i =1
(2) 若 H ( X ) = − ∑ pi log pi = 0 , 由于 pi log pi ≤ 0 (∀i ) , ⇒ 又由于 pi log pi = 0 (∀i ) , ⇒ pi = 0 或 pi = 1 (∀i ) ,
∑ pi = 1 ,
i =1
N
故 { pk }中只有一个为 1,其余的为 0。 , 。 6
§2.2 离散信源的熵
二、基本性质
1. 非负性
H( X) = H( p1 , p2 ,⋯, pN ) ≥ 0.
证 由 0 ≤ pi ≤ 1 ⇒ log pi ≤ 0 ,
N
⇒
i =1
pi log pi ≤ 0 ,
⇒
H ( X ) = − ∑ pi log pi ≥ 0 .
2. 对称性
第三章离散信源及离散熵

电子科技大学
H(X) = −∑p(xi )lbp(xi )
i =1
4
1 1 1 1 1 1 = − lb − lb − lb × 2 2 2 4 4 8 8
2011-3-13
1 1 1 1 1 1 = lb2 + lb4 + lb8 = + × 2 + × 3 2 4 4 2 4 4 bol = 1.75(bit / sym )
2011-3-13
1、离散平稳信源及其数学模型 对于多符号离散信源发出的符号序列 X1X2 L 如果任意两个不同时刻k …, 如果任意两个不同时刻k和l,k=1,2, …, l=1,2, …,其概率分布相同,即 …,其概率分布相同, P(Xk ) = P(Xl ) 则称该多符号离散信源为一维离散平稳 信源。 信源。
该信源的离散熵
2011-3-13
H(X1X2 ) = −∑p(ai )lbp(ai )
= −∑∑p(xi1 xi 2 )lbp(xi1 xi 2 )
i1 =1i 2 =1 n n n n
n2
电子科技大学
i =1
= −∑∑p(xi1 xi 2 )lbp(xi1 )p(xi 2 / xi1 )
i1 =1i 2 =1
电子科技大学
H(X) = −∑p(i)lbp(i)
i =1
6
1 1 bol = − lb × 6 = lb6 = 2.585(bit / sym ) 6 6
2011-3-13
例2,求某一天简单的天气气象这一信源 的离散熵。 的离散熵。 该信源的数学模型为: 解: 该信源的数学模型为:
) ) ) 雨 x1(晴 x2(阴 x3( ) x4(雪 X 1 1 1 P(X) = 1 2 4 8 8
第二章 信源和信息熵

第二章 信源和信息熵
2.1 信源的数学模型及分类
通信系统模型及信息传输模型:
第二章 信源和信息熵
一、离散无记忆信源
例:扔一颗质地均匀的正方体骰子,研究其下落后, 朝上一面的点数。每次试验结果必然是1点、2点、3点、 4点、5点、6点中的某一个面朝上。每次试验只随机出 现其中一种消息,不可能出现这个集合以外的消息, 考察此事件信源的数学模型。
• 平均符号熵就是信源符号序列中平均每个信 源符号所携带的信息量。
• 条件熵≤无条件熵;条件较多的熵≤条件较少 的熵,所以:
第二章 信源和信息熵
离 散 平 稳 信 源 性 质(H1(X)<∞时):
• 条件熵随N的增加是递减的; • 平均符号熵≥条件熵; • 平均符号熵HN(X)随N增加是递减的; • 极限熵
且:I(X1;X2)=I(X2;X1)
第二章 信源和信息熵
注意:任何无源处理总是丢失信息的,至多保持原来 的信息,这是信息不可增性的一种表现。
二、离散平稳信源的极限熵 设信源输出一系列符号序列X1,X2, ‥XN 概率分布: 联合熵:
定义序列的平均符号熵=总和/序列长度,即:
第二章 信源和信息熵
即:收信者所获得的信息量应等于信息传输前 后不确定性的减少的量。
例:设一条电线上串联8个灯泡,且损坏的可 能性为等概,若仅有一个坏灯泡,须获知多少 信息量才可确认?
第二章 信源和信息熵
例解:
测量前,P1(x)=1/8,存在不确定性: I(P1(x))=log8=3bit
第一次测量获得信息量: 第二次测量获得信息量: 第三次测量获得信息量: 每次测量获得1bit信息量,需三次测量可确定坏灯泡
例:运用熵函数的递增性,计算熵函数 H(1/3,1/3,1/6,1/6)的数值。
2.3离散序列信源的熵2.3.1离散无记忆信源的序列熵2.3.2离散

推广结论3可得
结论4从理论上定义了平稳离散有记忆信源的极限熵,
实际上如按此公式计算极限熵是十分困难的。
上述公式在工程上很实用。
2.3.1 离散无记忆信源的列熵
以最简单的序列信源为例,L=2。当信源无记忆时,X2序 列的概率为
序列熵:
2.3 离散序列信源的熵
2.3.1 离散无记忆信源的序列熵 长度为L的无记忆信源的序列熵
信源满足 平稳特性
序列信源的平均符号熵:
2.3 离散序列信源的熵
2.3.2 离散有记忆信源的序列熵
(3)平均符号熵HL(X)随L的增加是递减的;
(4)如果
,则
存在,并且
证明:结论1
是L的单调非增函数.
证明:结论2
结合结论1,得
结论3
证明:结论3
是L的单调非增函数
运用结论2得:
当L→∞,
证明:结论4
称为极限熵,又称极限信息量.
证明:
取足够大的k(k→∞),固定L,前一项可忽略,后一项系数接近于1,得
的熵小于条件少的熵。
利用平稳性
结论:
(1)对于无记忆序列信源, 其平均符号熵等于单符号熵
(2)对于有记忆序列信源, 其平均符号熵随序列长度增加而减小。
2.3 离散序列信源的熵
2.3.2 离散有记忆信源的序列熵
定理1 对于离散平稳信源,有以下几个结论:
(1)条件熵
随L的增加是递减的;
(2)L给定时平均符号熵大于等于条件熵,即
2.3离散序列信源的熵 2.3.1离散无记忆信源的序列熵 2.3.2离散有记忆信源的序列熵
2.3 离散序列信源的熵
设信源输出的随机序列为X,X=(X1X2…Xi…XL),序列中
第二章_离散信源与信息熵的关系

给出,为了书写方便以后写成: 和
y1 , y2 , Y q1 , q2 , ym qm
xn Y y1, y2 , Q q( y ), q( y ), p( xn ) ; 1 2
ym q ( ym )
一. Definition of the self-mutual information:
«信 息 论 基 础 »
第二章:信息的度量与信息熵
( The measure of Information &Entropy) §2. 1 自信息与条件自信息
( self—information & conditional self— information) §2. 2 自互信息与条件自互信息 (self—mutual
p ( x ) 则表达当收端已收到某种消息后, 再统计发端的发送 率: y 概率,所以此条件概率称为后验概率(Posterior Probability) 。
§2. 1 自信息与条件自信息 因此我们说事件 xi 以及它所对应的先验概率P( x )而定
i
义出的自信息 I [ p( xi )] ,所表达的不论事件是否有人接收这 个事件它所固有的不确定度,或者说它所能带来的信息 xi p ( ) 量。而消息事件 y j xi nk 它所对应的条件概率 yj 是在收端接收到已干扰的消息后的后验概率,如果当它为1 xi p ( ) 则属于透明传输;若 y j <1,则属于有扰传输。而当 xi p ( ) 后验概率大于先验概率是 y j > P( xi ),说明事件 y j 发生之后多少也解除了事件 xi 的部分不定度,即得到 了事件 X xi 的部分信息。由于概率越大,不定度越小。 从客观上讲,条件自信息一定不会大于无条件的自信息。 同时也反映出要得知一些条件,原事件的不定度一定会 减少,最坏的情况也不过保持不变,即条件与事件无关。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
11
• 说明: 比较上述结果可得:
H2(X)<H1(X),即二重序列的 符号熵值较单符号熵变小了, 也就是不 确定度减小了,这是由于符号之间存在 关联性(相关性)造成的。
2020/5/15
12
3. 离散平稳序列信源 (1) 时间不变性:联合概率具有时间推移不
变性:
p{Xi1=x1,Xi2=x2,…….,XiL=xL}
= p{Xi1+h=x1,Xx2+h=x2,……,XiL+h=xL }
2020/5/15
13
(2) H(XL/XL-1) 是L的单调递减函数 证明:
H(XL/X1X2…XL-1)≤H(XL/X2X3…XL-1) (条件较多的熵小于或等于减少一些条件的熵) =H(XL-1/X1X2…XL-2)(平稳性) ≤H(XL-1/X2X3…XL-2) (条件较多的熵小于或等于减少一些条件的熵) =H(XL-2/X1X2…XL-3) (平稳性) …
H(XL/
X1X2…XL-1)+…+
H(XL/ X1X2…XL-1)]
=
L
1
k
H(
X1X2…XL-1)+
k 1 Lk
H(XL/ X1X2…XL-1)
2020/5/15
17
当固定L时,有
lim HL+k(X) ≤ H(XL/ X1X2…XL-1)=H(XL/ XL-1)
L
又因为 H(XL/ XL-1) ≤ HL(X)
设:随机序列的概率为 :
p(X=xi)=p(X1=xi1,X2=xi2,……,XL=xiL) =p(xi1)p(xi2/xi1)p(xi3/xi1xi2)…p(xiL/xi1xi2…xiL-1) =p(xi1)p(xi2/xi1)p(xi3/xi12)…p(xiL/xi1L-1) 式中 xi1L-1=xi1xi2…xiL-1
• 若当信源退化为无记忆时,有
L
H(X)= H(Xl ) l 1
• 若进一步又满足平稳性时,则有
H(X)=LH(X)
2020/5/15
8
例2-4-1
• 已知: 离散有记忆信源中各符号的概率空间为:
X P
a0 11/
46
a1 4/9
a2
1
/
4
现信源发出二重符号序列消息(ai,aj),这两
个符号的概率关联性用条件概率p(aj/ai)表示,
p(xil ) log p(xil )
l 1 i 1
• 其中 L H (xl ) p(xil ) log p(xil ) i l 1
(2)若信源的序列满足平稳特性(与序号l无关)时, 有p(xi1)=p(xi2)=…=p(xiL)=p,p(xi)=pL,则信源的 序列熵又可表示为H(X)=LH(x).
并由下表给出。求离散信源的序列熵和平均每
个符号的熵?
2020/5/15
9
ai
aj
a0
a1
a2
a0
9/11 2/9 0
a1
1/8 3/4 1/8
a2
0
2/9 7/9
2020/5/15
10
• 解:条件熵
22
H(X2/X1)=
p(ai a j ) log 2 p(a j / ai ) 0.872 比特/符号
所以,当 L 时, HL(X) = HL+k(X)
2020/5/15
1
• 分析:
(1)当信源无记忆(序列中的符号之间无
相关性)时,p(xi)=p(xi1xi2…xiL)= L p(xil ) l 1
2020/5/15
H ( X ) p(xi ) log p(xi )
i
L
L
p(xil ) log
p(xil )
i l 1
l 1
L
L
=H(X1X2…XL-1)+ H(XL/ X1X2…XL-1)
= (L-1)HL-1(X)+ H(XL/ XL-1) ≤ (L-1)HL-1(X)+ HL(X) 所以 HL(X) ≤ HL-1(X) 同理,有 H∞ (X) ≤ … ≤ HL+1(X) ≤ HL(X) ≤ HL-1(X) ≤ … ≤ H0(X)
(2)H(X1)≥H(X1/X2) H(X2) ≥ H(X2/X1)
2020/5/15
5
• 当前后符号无依存关系时,有下列推论: H(X1 X2)=H(X1)+H(X2) H(X1)= H(X1/X2) H(X2)= H(X2/X1)
2020/5/15
6
2. 由有限个有记忆序列信源符号组成的序列
平均每个符号熵为
HL(X)=H(X)/L=H(x )(单个符号信源的符号熵 )
2020/5/15
3
第四讲
2003年5月6日
2020/5/15
4
2.4.2 离散有记忆信源的序列熵
• 问题
1. 对于由两个符号组成的联合信源,有下列 结 论:
(l)H(X1 X2)=H(X1)+H(X2/X1) = H(X2)+ H(X1/X2)
≤H(X2/X1)
2020/5/15
14
(3) HL(X) ≥H(XL/XL-1)
证明: HL(X)=H(X1X2…XL)/L
= [H(X1)+H( X2/X1)+…+H(XL/X1X2…XL-1)]/L
≥ [LH(XL/X1X2…XL-1)]/L = H(XL/XL-1)
2020/5/15
15
(4) HL(X) 是L的单调递减函数 证明: LHL(X)=H(X1X2…XL)
• 设:信源输出的随机序列为X,X=(X1 X2…XL), 则信源的序列熵定义为
H(X)=H(X1X2…XL)
=H(X1)+H(X2/X1)+…+H(XL/X1X2….XL-1)
记作 H(X)=H(XL)=
L
H ( X l / X l1 )
l 1
2020/5/15
7
• 平均每个符号的熵为 HL(X)=H(X)/L
i0 j0
2
单符号信源熵H1(X ) H (X1) p(ai ) log2 p(ai ) 1.543 比特/符号
i0
发二重符号序列的熵
H(X1 X2)=H(X1)+H(X2/X1) =1.543+0.872=2.415 比特/符号
平均符号熵
20H20/25/(15 X)=H(X2)/2=1.21 比特/符号
2020/5/15
16
(5) H∞ (X)= LlimHL(X)
=
lim
L
H(XL/
X1X2…XL-1)
H∞ (X)叫极限熵或极限信息量。
证明:
HL+k(X)
=
L
1
k
[H( X1X2…XL-1)+
H(XL/ X1X2…XL-1)+…+ H(XL+k/ X1X2…XL+k-1)]
≤
L
1
[H(
k
X1X2…XL-1)+