第二章离散信源与信息熵(下)

合集下载

离散信源的信息熵

离散信源的信息熵

信息熵
(1) 信息熵 ③信息熵与平均获得的信息量 • 信息熵是信源的平均不确定性的描述。在一般
情况下它并不等于平均获得的信息量。 • 只有在无噪情况下,接收者才能正确无误地接
收到信源所发出的消息,消除 H(X) 大小的平均 不确定性,所以获得的平均信息量就等于 H(X)。 • 在一般情况下获得的信息量是两熵之差,并不 是信源熵本身。
1
1
1
I ( xi y j ) log2 p( xi ) p( y j ) log2 p( xi ) log2 p( y j )
I( xi ) I( y j )
• 两个随机事件相互独立时,同时发生得到的信息量,等于 各自自信息量之和。
17/20
自信息
3)条件自信息
• 设 yj 条件下,发生 xi 的条件概率为 p(xi /yj),那么它的条件自信 息量 I(xi/yj) 定义为:
I ( xi
/
y j ) log2
1 p( xi /
yj)
• 表示在特定条件下(yj已定)随机事件 xi 所带来的信息量 • 同理,xi 已知时发生 yj 的条件自信息量为:
1 I ( y j / xi ) log2 p( y j / xi )
18/20
自信息
3) 条件自信息
• 自信息量、条件自信息量和联合自信息量之间的 关系
❖ 信源 Y 比信源 X 的平均不确定性大;
信息熵
❖ 本例结论(续)
❖ 信息熵反映的就是信源输出前平均不确定程度的大小。 ❖ 变量 Y 取 y1 和 y2 是等概率的,所以其随机性大。而变
量 X 取 x1 的概率比取 x2 的概率大很多,这时变量 X 的 随机性就小。 ❖ 因此 H(X) 反映了变量的随机性。

信息论第二讲离散信源的熵

信息论第二讲离散信源的熵

其中状态(xi, yj)为联合信源输出的一个状态。
nm
p(xi, yj ) 1
i1 j1
2020/6/14
20
⑵联合信源共熵的表达式:
联合信源的共熵:联合信源输出一个组合消息 状态(xi,yj)所发出的平均信息量。 联合信源的独立熵:
nm
H (X ,Y) p(xi,yj)logp(xi,yj)
⑴离散信源特性: 根据Shannon信息论的观点,信源要含
有一定的信息,必然具有随机性,即有 不确定性,可以用其概率来表示。
2020/6/14
1
⑵离散信源空间:
信源的符号(状态)随机地取值于一个离散
集 合 [X]= ( x1,x2,…xn ) 中 , 一 个 离 散 信 源
可以用一个离散随机变量的概率空间表示。
j1
(i1,2,...n)
2020/6/14
27
⑵转移矩阵描述
矩阵[P]称为转移矩阵或信道矩阵;表示为:
y1
y2
x1 p(y1/x1) p(y2/x1)…
… [P]= x2 p(y1/x2) p(y2/x2)
……


xn p(y1/xn) p(y2/xn) …

ym p(ym/x1) p(ym/x2) … p(ym/xn)
[P]=(p1,p2,…pn) 这种表示称为离散无记忆信源的信源空间。
信源空间必为一个完备空间, n
即其概率和为1。
pi 1
i1
2020/6/14
2
⑶信源数学模型描述的条件:
用信源空间(离散随机变量)来表示信源
的条件是信源符号(状态)的先验概率是 可知的,这是Shannon信息论的一个基本 假说。

信息论与编码 第二章 信源与信息熵

信息论与编码 第二章 信源与信息熵
按照信源发出的消息在时间上和幅度上的分布情况可 将信源分成离散信源和连续信源两大类 : 离散信源: 文字、数据、电报
信源
{ 连续信源: 话音、图像
2~3 1~2 0~1 2 1 0
电 压 5~6 4~5 范围 量化 5 4
3~4
3
电 压 -1~0 -2~-1 -3~-2 -4~-3 -5~-4 -6~-5 范围
散无记忆信源。可用一个离散型随机变量X来描述这
个信源输出的消息。
2.1.1 无记忆信源
发出单个符号的离散无记忆信源
可用一个离散型随机变量X来描述这个信源输出的消息。 随机变量X的样本空间就是符号集:
A {a1 , a2 ,, an }
X的概率分布为:
P { p(a1 ), p(a2 ),, p(an )}
2.2.2 离散信源熵
信源熵
——信源的平均不确定度。
H ( X ) E[ I ( X )] p( xi )log p( xi )
i
单位为bit/符号
信源熵是在平均意义上来表征信源的统计特性,它是信源X的函数。
当信源给定,各符号的概率空间就给定,信源熵就是一个确定的值。
不同的信源因概率空间不同而具有不同的信源熵。
无记忆信源
{ 发出符号序列的无记忆信源
发出单个符号的无记忆信源
{
离散 连续
2.1.1 无记忆信源
发出符号序列的信源
——每次发出1组含L个(L≥2)符号的符号序列来代表一 个消息的信源。
需要用随机序列(或随机矢量) X =(X1, X2,…, Xl, …, XL)来描 述信源输出的消息,用联合概率分布p(X1, X2,…, Xl, …, XL)来表 示信源特性。 当L=2时,此时信源为X =(X1, X2) ,其概率空间为:

2015秋.信息论.第2章离散信源与信息熵

2015秋.信息论.第2章离散信源与信息熵

第2章离散信源与信息熵信号 信号+干扰 消息干扰消息 信源 编码器 信道 译码器 信宿 噪声源通信系统模型信息2.1 信源的分类和描述信源是信息的发源地,可以是人、生物、机器或其他事物。

信源的输出是包含信息的消息。

消息的形式可以是离散的或连续的。

信源输出为连续信号形式(如语音),可用连续随机变量描述。

连续信源←→模拟通信系统信源输出是离散的消息符号(如书信),可用离散随机变量描述。

离散信源←→数字通信系统离散信源…X i…X j…离散无记忆信源:输出符号Xi Xj之间相互无影响;离散有记忆信源:输出符号Xi Xj之间彼此依存。

3离散信源无记忆有记忆发出单个符号发出符号序列马尔可夫信源非马尔可夫信源y j将一粒棋子随意地放在棋盘中的某列;棋子放置的位置是一个随机事件;可看做一个发出单个符号的离散信源。

x i1212,,...,(),(),...,()m m x x x X P p x p x p x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦就数学意义来讲,信源就是一个概率场,可用概率空间来描述信源。

由离散随机变量X 表示棋子位置:10()1,()1m i ii p x p x =≤≤=∑i x 其中,代表随机事件的某一结果。

2.2离散信源的信息熵信息的可度量性是信息论建立的基础;香农的信息论用事件发生概率的对数来描述事件的不确定性,得到消息的信息量,建立熵的概念。

2.2.1自信息量–定义2.1 任意随机事件x i 的自信息量定义为:i i i 1(x )log log (x )(x )I P P ==-小概率事件所包含的不确定性大,自信息量大。

大概率事件所包含的不确定性小,自信息量小。

概率为1的确定性事件,自信息量为零。

i i i 1(x )log log (x )(x )I P P ==-信息量的单位与公式中的对数取底有关。

以2为底,单位比特(bit );以e 为底,单位奈特(nat );()22log log ,log log ln log c a c b b x e x a==⋅–例:棋盘共8列,甲随手一放,将一枚棋子放在了第3列。

第二章_离散信源与信息熵的关系

第二章_离散信源与信息熵的关系

给出,为了书写方便以后写成: 和
y1 , y2 , Y q1 , q2 , ym qm
xn Y y1, y2 , Q q( y ), q( y ), p( xn ) ; 1 2
ym q ( ym )
一. Definition of the self-mutual information:
«信 息 论 基 础 »
第二章:信息的度量与信息熵
( The measure of Information &Entropy) §2. 1 自信息与条件自信息
( self—information & conditional self— information) §2. 2 自互信息与条件自互信息 (self—mutual
p ( x ) 则表达当收端已收到某种消息后, 再统计发端的发送 率: y 概率,所以此条件概率称为后验概率(Posterior Probability) 。
§2. 1 自信息与条件自信息 因此我们说事件 xi 以及它所对应的先验概率P( x )而定
i
义出的自信息 I [ p( xi )] ,所表达的不论事件是否有人接收这 个事件它所固有的不确定度,或者说它所能带来的信息 xi p ( ) 量。而消息事件 y j xi nk 它所对应的条件概率 yj 是在收端接收到已干扰的消息后的后验概率,如果当它为1 xi p ( ) 则属于透明传输;若 y j <1,则属于有扰传输。而当 xi p ( ) 后验概率大于先验概率是 y j > P( xi ),说明事件 y j 发生之后多少也解除了事件 xi 的部分不定度,即得到 了事件 X xi 的部分信息。由于概率越大,不定度越小。 从客观上讲,条件自信息一定不会大于无条件的自信息。 同时也反映出要得知一些条件,原事件的不定度一定会 减少,最坏的情况也不过保持不变,即条件与事件无关。

第2章信源及信源熵 145页PPT文档

第2章信源及信源熵 145页PPT文档

【例2.1】
设信源只有两个符号“0”和“1”,且它们以消 息的形式向外发送时均以等概率出现,求它们 各自的自信息量。
(二)不确定度d(ai)与自信息量I(ai) 两者的联系
数值上相等,单位也相等,但含义不同。
两者的区别
具有某种概率分布的随机事件,不管其发生与否, 都存在不确定度,不确定度是任何随机事件本身所 具有的属性。
信源空间:
X P(x)
a1 a2 … aN =
P(a1) P(a2) … P(aN)
显然有:
例:对于二进制数据、数字信源:X={0,1}, 若这两个符号是等概率出现的,则有:
X P(x)
a1 = 0a2 = 1 Nhomakorabea=
P(a1) =0.5 P(a2) = 0.5
(二)多符号离散信源
是发出符号序列的信源
一般来说,信源输出的随机序列的统计特性比较复杂,分析起来也比 较困难。为了便于分析,我们假设信源输出的是平稳的随机序列,也 就是序列的统计性质与时间的推移无关。很多实际信源也满足这个假 设。
若在信源输出的随机序列X= (X1,X2,…,XN)中,每个随机变 量Xi (i=1,2,…,N)都是取值离散的离散型随机变量,即每个随机变量 Xi的可能取值是有限的或可数的;而且随机矢量X的各维概率分布都 与时间起点无关,也就是在任意两个不同时刻随机矢量X的各维概率 分布都相同。这样的信源称为离散平稳信源。如中文自然语言文字, 离散化平面灰度图像都是这种离散型平稳信源。
离散无记忆信源
在某些简单的离散平稳信源情况下,信源先后发出的 一个个符号彼此是统计独立的。也就是说发出的信源 发出的符号是相互独立的,发出符号序列中各个符号 之间也是相互独立的。

第2章 离散信源熵

第2章 离散信源熵

H (Y X ) E[ I (b j ai )] p(aib j )log p(b j ai )
i 1 j 1
n
m
(2.2.8) (2.2.9)
21
3 联合熵
H ( XY ) p(aib j ) I (aib j ) p(aib j )log p(aib j )
6
对于离散随机变量,取值于集合
a1
, a 2 , , ai , , a n
对任一 a i 记 p ( ai ) P ( X ai ) 单符号离散信源的数学模型为
, ai , , an X a1 , a2 , P( X ) p(a ), p(a ), , p(a ), , p(a ) 1 2 i n
23
证明:自然对数具有性质 当 x 0时, ln x x 1 ,并且当且仅当 x 1 时,该式取等号。
图2.2.3 自然对数的性质
24
n n 1 1 H ( X ) log n p(ai )log p(ai )log n p(ai )log p(ai ) i 1 np(ai ) i 1 i 1 n
j 1 i 1
m
n
p(a b ) p(b ), p(a b ) p(a )
i 1 i j j j 1 i j i
n
m
p(ai bj ) p(bj ) p(ai bj ) p(ai ) p(bj ai )
当 X 与 Y 相互独立时
p(aib j ) p(ai ) p(b j ), p(b j ai ) p(b j ), p(ai b j ) p(ai )
条 件 熵
信 源 熵

离散信源的信息熵

离散信源的信息熵

H ( X ) 0.99 log 0.99 0.01log 0.01 0.08(比特 / 符号) H (Y ) 0.5 log 0.5 0.5 log 0.5 1(比特 / 符号)

H (Y ) H ( X ) 可见 信源Y比信源X的平均不确定性要大。信息熵正好反映了信源输 出消息前,接收者对信源存在的平均不确定程度的大小,也反 映了信源随机性的大小。
信息论
2.2 离散信源的信息熵
2.2.1 自信息信息量的度量方法



自信息量I(x) 是 P(x) 的单调递减函数 P(x) ,I(x) ; P(x) ,I(x) ; P(x) = 1时,I(x) = 0; P(x) = 0时,I(x) = ; 两个独立事件的联合信息量应等于它们分别信息量之和,即统 计独立信源的信息量等于分别信息量之和。 满足上述3条件的关系式如下:

用什么作为整个信源的信息测度?
信息熵
电子信息工程学院
信息论
2.2 离散信源的信息熵
2.2.2 信息熵


各离散消息自信息量的数学期望,即信源的平均自信息量—— 信息熵。
n 1 H ( X ) E[ I (ai )] E[log2 ] p(ai ) log2 p(ai ) p(ai ) i 1
第三次 第二次 第二次 第一次 第一次

第一次获得的信息量
I[P 1 ( x)] I [ P 2 ( x)] log2 1 1 1 1 log2 log2 log2 1 P ( x ) P ( x ) 1 8 1 4 1 2

第二次获得的信息量
I[P 2 ( x)] I [ P 3 ( x)] log2 1 1 1 1 log2 log2 log2 1 P ( x ) P ( x ) 1 4 1 2 2 3
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

平均不定度 信 息 量 I ( xi ; y j ) E [ I ( xi )]
§2. 5 离散信源的互信息、条件互信息 离散信源的互信息、
通过上述比较, 通过上述比较,可知互信息象熵一样应是整个集合 间的总体特征, 间的总体特征,即它是描述了两个分属于不同集合的随 机变量间的平均相关程度。 机变量间的平均相关程度。 互信息的数学定义: 一、互信息的数学定义
又 ∵ H ( XY ) = H ( X ) + H (Y X ) = H ( X ) + H (Y ) − I ( X : Y ) ∴ I ( X ; Y ) = H ( X ) + H (Y ) − H ( XY ) 同理: ∵ I ( X ;Y ) = H ( X ) − H ( X Y ) I ( X ;Y ) ≤ H ( X ) and ∴ and H ( X Y ) ≥ 0 I ( X ; Y ) ≤ H (Y )
§2. 5 离散信源的互信息、条件互信息 离散信源的互信息、
∴ I ( X ; Y ) = E I ( xi ; y j ) = ∑ ∑ p ( xi y j ) I ( xi ; y j )
i =1 j =1 n n m
= ∑ ∑ rij log
i =1 j =1 n m
n
m
Qij pi
j =1 k =1
m
l
= I ( X ;Y / Z )
§2. 5 离散信源的互信息、条件互信息 离散信源的互信息、
从另一种方式也可得到条件互信息的表达式: 从另一种方式也可得到条件互信息的表达式: ∵ I ( xi ; y j z k ) = I ( xi ; y j z k ) − I ( xi ; z k ) 可加性
I ( X ; Y ) = E[ I ( xi ; y j )]
def

I ( x = ai ; y = b j ) = log
p ( x = ai y = b j ) p ( x = ai )
= log
p ( xi y j ) p ( xi )
where : and
a1, a2 ,…, an b1, b2 ,…, bm x∈ y∈ p1 , p2 ,…, pn q1, q2 ,…, qm p( xy ) = rij = pi Pji = q jQij
第二章. 第二章 信息的度量与信息熵
离散信源的互信息、 §2. 5 离散信源的互信息、条件互信息
( Mutual Information and Conditional Mutual Information for Discrete Source)
有的书把互信息亦称为平均互信息(average mutual information) 有的书把互信息亦称为平均互信息
∵ H(X)表示集合X原有的平均不定度;H(X Y)则表示当收到 符 号 集 合 Y之 后 ( 即 集 合 Y中 的 平 均 不 确 定 度 已 解 除 后 ) 关 于 集 合 X中 还 剩 下 多 少 平 均 不 定 度 , 两 者 之 差 就 是 每 收 到 一 个 y 之 后 , 平 均 得 到 有 关 x的 信 息 量 。 I(X; Y)的物理概念是:当Y被确知后,所能解除多少关于X 的 平 均 不 确 定 度 ; 或 者 说 所 能 得 到 有 关 X的 信 息 量 。 所 谓 平 均 是 指 从 集 合 Y中 平 均 每 一 符 号 可 获 得 有 关 X的 信 息 。
= H ( X ) − ∑ q j H ( X y = bj )
j =1
m
= H (X ) − H (X Y)
§2. 5 离散信源的互信息、条件互信息 离散信源的互信息、
同理:I (Y ; X ) = H(Y ) − H(Y X ) = I ( X;Y ) = H( X ) − H( X Y )
n m l 和互信息一样也可 1 = ∑∑∑ p ( zk )P( xi zk ) P( y j xi zk ) log + 由条件自互信息导出条 P( xi zk ) i =1 j =1 k =1 件互信息: n m l
§2. 5 离散信源的互信息、条件互信息 离散信源的互信息、 三、条件互信息(Conditional mutual information) )
§2.4.2 各种熵函数的互换关系 同理可推出: 同理可推出:
H ( X1 X2 ⋯X N ) ≤ H ( X1) + H ( X2 ) +⋯+ H ( X N )
等号成立的充分必要条件是:
X 1 , X 2 , … , X N ; 之间相互统计独立。
即: H ( X1 X 2 ⋯ X N ) = H ( X1 ) + H ( X 2 ) +⋯+ H ( X N )
我们将类似于自信息引出信息熵的方法导出互信息: 先比较自信息与信息熵的关系,再讨论互信息与自互 信息的关系。
自信息 events Variables 不确定度 I ( xi ) 信息熵 set Constant
自互信息 Events Variables
互信息 Sets Constant 平均信息量 E I ( xi ; y j )
i =1 j =1
1
证明的难点二: ∵ ln x ≤ x − 1
then :
log x = ln x log e
log x ≤ ( x − 1) log e

log
p( xi ) p( y j )
p( xi ) p( y j ) ≤ − 1 log e p( xi y j ) p( xi y j )
∵ I ( X ; Y ) = ∑∑ p( xi y j ) log
i =1 j =1 n m
Qij pi
pi pi 1 n m − I ( X ; Y ) = ∑∑ q j Qij log ≤ − 1 ∑∑ q j Qij Q Qij ln 2 i =1 j =1 i =1 j =1 ij
= ∑ ∑ rij log
i =1 j =1 n m
m
Pji qj
= − ∑ ∑ pi Pji log pi + ∑ ∑ q j Qij log Qij
i =1 j =1 i =1 j =1
∑p
j =1
m
ji
=1
m m n n = − ∑ Pji ∑ pi log pi − ∑ q j − ∑ Qij log Qij j i =1 j i
如 果 等 号 成 立 : 即, I ( X ; X ) = H ( X ) 则 x与 y一 一 对 应 。 [∵ H ( X Y ) = 0]
为了方便记忆,用两种图来表示它们的关系。
§(Y/X) I(X;Y) H(X/Y) H(Y)
2°. 互易性 (mutuality)
I(X;Y)=I(Y;X) 显而易见! 显而易见!
3°. 互信息与各类熵函数之间的关系
I(X;Y) =H(X)−H(X Y) =HY)−HY X) =H(X)+HY)−H(XY) ( ( (
§2. 5 离散信源的互信息、条件互信息 离散信源的互信息、
∵ ∴ I ( X ; Y ) = H (Y ) − H (Y X ) H (Y X ) = H (Y ) − I ( X ; Y )
n m l
P ( xi y j zk )
Definition: :
m j
+ ∑∑∑ p( zk )P( y j zk ) P( xi y j zk ) log P( xi y j zk )
i =1 j =1 k =1 n l
= −∑ P( y j xi zk )∑∑ p( zk )P( xi zk ) log P ( xi zk ) −
∵ ∴ I ( xi ; y j ) ≥ 0 ⇒ E I ( xi ; y j ) ≥ 0 I ( X ;Y ) ≥ 0
n
or :
m
∵H ( X Y ) ≤ H( X )
Qij pi = ∑∑ q j Qij log
i =1 j =1 n m
∴ H ( X ) − H ( X Y ) = I ( X ;Y ) ≥ 0 当然也可从定义中证明:

Thus the mutual information I(x;y) is the reduction in the uncertainty of X due to the knowledge of Y.
§2. 5 离散信源的互信息、条件互信息 离散信源的互信息、 二、互信息的性质
1°. 非负性 (non-negativity)
二、由熵函数可加性的推广可得:
H ( X1, X 2 , X 3 ,…, X N ) = H ( X1 ) + H ( X 2 X1 ) + H ( X 3 X1 X 2 ) + + ⋯ + H ( X N X1 X 2 ⋯ X N −1 ) = = ∑ H ( X i X1 X 2 ⋯ X i −1 )
i =1 N
§2.4.2 各种熵函数的互换关系 三、联合熵与分部信息熵的关系 H ( XY ) ≤ H ( X ) + H (Y )
1
证明的难点一: n m n m −∑ p( xi )log p( xi ) + −∑ p( y j )log p( y j ) = −∑ p(xi ) ∑ p( y j xi ) log p( xi ) i =1 i=1 j =1 j =1 m n − ∑ p( y j ) ∑ p( xi y j ) log p( y j ) j =1 i=1 n m = − ∑ ∑ p ( x i y j ) log[ p ( x i ) p ( y j )]
相关文档
最新文档