信息论与编码第二章

合集下载

《信息论与编码》课件1第2章

《信息论与编码》课件1第2章
I(ai)是一个随机变量并不难理解。因为ai发生可以使收 信者获得大小为I(ai)的自信息,然而在信源未发出消息之 前,收信者不仅对ai是否发生具有不确定性,而且对于能 够获得多少自信息也是不确定的。因此,伴随着X=ai的随 机发生而发生的自信息I(ai)是一个随机变量,并且与随机 变量X具有相同的概率分布, 即自信息I(ai)是一个发生概率 为P(X=ai)
如果消息ai已发生,则该消息发生所含有的自信息定 义为
1
1
I (ai ) log P(ai ) log pi
(2.4)
第2章 离散无记忆信源与信息熵
可以很容易地证明, 自信息的定义满足上面提出的四个
(1) 此自信息的定义是根据消息发生的概率建立的一个 工程定义,而不是根据这个消息对人的实际意义而建立的 定义。这一纯粹技术性的定义仅仅抓住了“信息”一词在
(2) 自信息I(ai) 在消息ai发生之前,自信息I(ai)表示ai发生的不确定性; 在消息ai发生以后,自信息I(ai)表示ai所含有的(或提
第2章 离散无记忆信源与信息熵
(3) 在式(2.4)中关于对数的底未作明确规定。这是 因为对数的底仅仅影响到度量的单位,实际中可根据
如果取对数的底为2,则所得信息量的单位为比特 (bit, binary unit),此时logx用lbx
第2章 离散无记忆信源与信息熵
第2章 离散无记忆信源与信息熵
2.1 离散无记忆信源 2.2 自信息和熵 2.3 熵函数的性质 2.4 联合事件的熵及其关系 2.5 连续信源的信息测度 习题2
第2章 离散无记忆信源与信息熵
信息理论的研究对象是以各类信息的获取、表示、 传输和处理为目的的信息系统。图2-1给出了一个典型 的通信系统物理模型。在这样的通信系统中,一个贯 穿始终的、最基本的问题便是信息,即信源输出的是 信息,在系统中传输的是信息,接收者获得的也是信 息。可见,在信息理论的学习和研究中,首先需要对

信息论与编码,曹雪虹,课件第2章-2

信息论与编码,曹雪虹,课件第2章-2
信息论与编码
第二章
信源与信息熵
内容
2.1 信源的描述和分类 2.2 离散信源熵和互信息 2.3 离散序列信源的熵 2.4 连续信源的熵和互信 2.5 冗余度
3
信源的分类
• 离散信源
– 指发出在时间和幅度上都是离散分布的离散 消息的信源,如文字、数字、数据等符号都 是离散消息。
{ 离散
{ { 信源
W1
W2
W3
W4
• 稳态分布概率
W1
3 35
,
W2
6 35
,
W3
6 35
,
W4
4 7
• 稳态后的符号概率分布
p(a1)
i
p(a1
|
si
)
p(siΒιβλιοθήκη )1 23 35
1 3
6 35
1 4
6 35
1 5
4 7
9 35
p(a2 )
i
p(a2
|
si )
p(si )
1 2
3 35
2 3
6 35
(1)1/2
s2 01
00 s1
(0)1/4
(0)1/3 (1)3/4
10 s3
(1)2/3
s4 0 2 / 3 0 4 / 5
11 (0)1/5
s4
(1)4/5
8
Wi pij W j
i
1 2
W1
1 2
W1
W1 W2 W3 W4 1
1 3
W2
2 3 W2
1 2
W3
3 4
W3
1 5
W4
4 5 W4
3 4
6 35

信息论与编码第二章

信息论与编码第二章

i 1
qN
qq
H ( X N ) p(ai ) log p(ai ) ... p(ai1ai2 ...aiN ) log p(ai1ai2 ...aiN )
iq1 q
i11 iN 1
... p(ai1ai2 ...aiN ) log{p(ai1) p(ai2 )...p(aiN )}
2 p( 2 )
qN p( qN
)
a1a1 a1 p(a1a1 a1
)
a2 a1 a1 p(a2 a1 a1 )
a3a1 a1 p(a3a1 a1 )
aqaq aq p(aq aq aq )
• 离散(lísàn)无记忆N次扩展信源熵为:
• 证明: qN H ( X N ) H ( X 1 X 2 ...X N ) p( i ) log p( i ) NH ( X )
H Nk (X )
1 N k
H(X1 X N X Nk )
1
N k
H ( X 1 X N 1 ) H ( X N | X 1 X N 1 ) H ( X N k | X 1 X N k 1 )
i1 1 iN 1
H ( X 1 ) H ( X 2 | X 1 ) H ( X N | X 1 X 2 X N 1 )
N个分量统计关联的随机矢量 x [x1x2 xN ]的联合
(liáHn(Xh1 éX)熵N )
,等于起始时刻的无条件
熵与各阶条件熵之和,并不随时间的推移而
变化。 精品文档
log p(ai ) log p(b j ) I (ai ) I (b j )
精品文档
自信息(xìnxī)的表达I(a式i ) log[1/ p(ai )]

信息论与编码_第2章

信息论与编码_第2章
14
2.1信源描述与分类

马尔可夫信源 更一般,经过n-m步后转移至sj的概率
pij (m, n) = P{S n = s j / S m = si } = P{s j / si } pij (m, n) ≥ 0 ∑ pij (m, n) = 1 j
15
2.1信源描述与分类
i
33
2.2离散信源熵与互信息

单符号离散信源熵 定义:对于给定离散概率空间表示的信源所定 义的随机变量I的数学期望为信源的信息熵, 单位为比特/符号
H ( X ) = E[ I ( x)] = −∑ p ( xi ) log p ( xi )
X = x1 x 2 0 . 8 0 . 2 P
32
2.2离散信源熵与互信息
I ( x1 ) = − log 2 p ( x1 ) = − log 2 0.8bit I ( x 2 ) = − log 2 p( x 2 ) = − log 2 0.2bit N次后所获得的信息量为 I = Np ( x1 ) I ( x1 ) + Np ( x 2 ) I ( x 2 ) = (−0.8 log 2 0.8 − 0.2 log 2 0.2) N 平均每次所获得的信息量为 I = p ( x1 ) I ( x1 ) + p ( x 2 ) I ( x 2 ) = ∑ p ( xi ) log p ( xi )
第2章 信源与信息熵

信源描述与分类 离散信源的信息熵和互信息 离散序列信源的熵 连续信源的熵与互信息 冗余度
1
2.1信源的描述与分类


信源是产生消息(符号)、消息序列和连续消 息的来源。从数学上,由于消息的不确定性, 因此,信源是产生随机变量、随机序列和随机 过程的源 信源的基本特性是具有随机不确定性

信息论编码 第二章信息度量1

信息论编码   第二章信息度量1

50个红球,50个黑球
Y
20个红球,其它4种 颜色各20个
Z
问题:能否度量、如何度量??
2.3.2信源熵数学描述
信源熵
• 定义:信源各个离散消息的自信息量的数学期望 (即概率加权的统计平均值)为信源的平均信息 量,一般称为信源的信息熵,也叫信源熵或香农 熵,有时也称为无条件熵或熵函数,简称熵。 • 公式: n 1 H ( X ) = E[ I ( xi )] = E[log2 ] = −∑ p( xi ) log2 p( xi ) p( xi ) i =1 • 熵函数的自变量是X,表示信源整体,实质上是无 记忆信源平均不确定度的度量。也是试验后平均 不确定性=携载的信息 信息量为熵 • 单位:以2为底,比特/符号 • 为什么要用熵这个词,与热熵的区别?
3
( 2)
∑ p ( x ) = 1, ∑ p ( y
i =1 m i j =1
n
m
j
) = 1,∑ p ( xi / y j ) = 1,
i =1 n
n
概 率 复 习
∑ p( y
j =1 n
j
/ xi ) = 1, ∑ ∑ p ( xi y j ) = 1
j =1 i =1 m
m
( 3) ( 4) (5)
1
对天气x1 ,Q p( x1 / y1 ) = 0,∴不必再考虑x1与y1之间 信息量
对天气 x 2 : I ( x 2 : y 1 ) = log
2
p ( x 2 / y1 ) = log p ( x2 )
2
1/ 2 = 1( bit ) 1/ 4
同理 I ( x 3 : y 1 ) = I ( x 4 : y 1 ) = 1( bit ), 这表明从 y 1 分别得到了

信息论与编码2

信息论与编码2

根据概率互换公式
p(xi yj) = p(yj︱xi)q(xi)=φ(xi︱yj)ω (yj)
互信息量I(xi ;yj )有多种表达形式:
I ( xi ; y j ) log
p( xi y j ) q( xi ) ( y j )
I ( xi ) I ( y j ) I ( xi y j )
第2章 信息的度量
第2章 信息的度量
内容提要:
根据香农对于信息的定义,信息是一个系 统不确定性的度量,尤其在通信系统中, 研究的是信息的处理、传输和存储,所以 对于信息的定量计算是非常重要的。本章 主要从通信系统模型入手,研究离散情况 下各种信息的描述方法及定量计算,讨论 它们的性质和相互关系。
2.1 自信息量和互信息量
(2-13)
【例2.8】信源包含8个消息x0,x1,x2,x3,x4,x5,x6,x7 ,信源编码器将 其对应编成8个三位二进制数000,001,…,111。各消息的先验概率 已知,在接收过程中,每收到一个数字,各消息的后验概率都相应 地发生变化。考虑在接受100三个数字的过程中,各后验概率的变 化,计算信息量I(x4;100)。
1/8
1/8 1/4 1/4
1/6
1/6 1/3 1/3
1/2
1/2 0 0
1
0 0 0
根据给定的先验概率,可算出:
1 12 1 23 1 p ( x4 ) p( x4 1) p( x4 10) P (x4︱100) = 1 8 1 2 1 8 1 8 6 2 3 1 6 2
可以看出, 1比特信息量就是两个互不相容 的等可能事件之一发生时所提供的信息量。
二维联合集X Y上元素xi yj的联合自信息量I(xi yj)定义为:

信息论与编码第2章习题解答

信息论与编码第2章习题解答

信息论与编码第2章习题解答2.1设有12枚同值硬币,其中⼀枚为假币。

只知道假币的重量与真币的重量不同,但不知究竟是重还是轻。

现⽤⽐较天平左右两边轻重的⽅法来测量(因⽆砝码)。

为了在天平上称出哪⼀枚是假币,试问⾄少必须称多少次?解:分三组,每组4个,任意取两组称。

会有两种情况,平衡,或不平衡。

(1) 平衡:明确假币在其余的4个⾥⾯。

从这4个⾥⾯任意取3个,并从其余8个好的⾥⾯也取3个称。

⼜有两种情况:平衡或不平衡。

a )平衡:称⼀下那个剩下的就⾏了。

b )不平衡:我们⾄少知道那组假币是轻还是重。

从这三个有假币的组⾥任意选两个称⼀下,⼜有两种情况:平衡与不平衡,不过我们已经知道假币的轻重情况了,⾃然的,不平衡直接就知道谁是假币;平衡的话,剩下的呢个⾃然是假币,并且我们也知道他是轻还是重。

(2) 不平衡:假定已经确定该组⾥有假币时候:推论1:在知道该组是轻还是重的时候,只称⼀次,能找出假币的话,那么这组的个数不超过3。

我们知道,只要我们知道了该组(3个)有假币,并且知道轻重,只要称⼀次就可以找出来假币了。

从不平衡的两组中,⽐如轻的⼀组⾥分为3和1表⽰为“轻(3)”和“轻(1)”,同样重的⼀组也是分成3和1标⽰为“重(3)”和“重(1)”。

在从另外4个剩下的,也就是好的⼀组⾥取3个表⽰为“准(3)”。

交叉组合为:轻(3) + 重(1)?=======?轻(1) + 准(3)来称⼀下。

⼜会有3种情况:(1)左⾯轻:这说明假币⼀定在第⼀次称的时候的轻的⼀组,因为“重(1)”也出现在现在轻的⼀边,我们已经知道,假币是轻的。

那么假币在轻(3)⾥⾯,根据推论1,再称⼀次就可以了。

(2)右⾯轻:这⾥有两种可能:“重(1)”是假币,它是重的,或者“轻(1)”是假币,它是轻的。

这两种情况,任意取这两个中的⼀个和⼀个真币称⼀下即可。

(3)平衡:假币在“重(3)”⾥⾯,⽽且是重的。

根据推论也只要称⼀次即可。

2.2 同时扔⼀对骰⼦,当得知“两骰⼦⾯朝上点数之和为2”或“⾯朝上点数之和为8”或“骰⼦⾯朝上之和是3和4”时,试问这三种情况分别获得多少信息量?解:设“两骰⼦⾯朝上点数之和为2”为事件A ,则在可能出现的36种可能中,只能个骰⼦都为1,这⼀种结果。

信息论与编码课件第二章

信息论与编码课件第二章

条件互信息量与联合互信息量
条件互信息量定义
I( x; y | z) loga
p( x | yz) p( x | z)
联合互信息量定义
I( x; yz)
log a
p( x | yz) p( x)
自信息量与互信息量的区分 (表达方式和含义上)
信息量 I( x) I( x | y) I( xy)
I(x)
联合自信息量与联合熵
联合自信息量定义
I ( xy ) = log 1 = - log p(xy) p( xy)
联合熵定义(联合自信息量的统计平均)
H(XY )
=
EXY I( xy)
=
xX yY
p( xy)I( xy)
= p( xy)log p( xy)
xX yY
自信息量、条件信息量、联合信息量 三者之间的关系
3 4
1 8
log2
1 4
0.406(bit)
H (Y | Z ) H ( X | Z ) 0.862(bit)
H (Z | X ) H (Z | Y ) 0.406(bit)
H ( X | YZ) H (Y | XZ ) 0.406(bit)
H (Z | XY ) 0
• (3)
I( X;Y ) H ( X ) H ( X | Y ) 1 0.811 0.189(bit) I( X; Z ) H ( X ) H ( X | Z ) 1 0.862 0.138(bit) I(Y ; Z ) I( X; Z ) 0.138(bit) I( X;Y | Z ) H( X | Z ) H( X |YZ)
8888
(2)根据(1)得到的联合概率分布和边沿概率分布
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

§2.1 单符号离散信源
❖ 例:设在一正方形棋盘上共有64个方格,如果甲 将一粒棋子随意的按下列方案放在棋盘中的某方 格且让乙猜测棋子所在位置。
❖ (1) 将方格按顺序编号,令乙猜测棋子所在的 顺序号。问猜测的难易程度。
❖ (2)将方格按行和列编号,甲将棋子所在方格的 行(或列)编号告诉乙之后,再令乙猜测棋子所 在列(或行)的位置。问猜测的难易程度。
7(U7) 111(x1y1z1) 1/16
收到0后的 后验概率
收到01后的 后验概率
收到011后的 后验概率
§2.1 单符号离散信源
解:⑴ 收到第一个0(x0)后U0~U7的后验概率:
p(u0 x0) p(u0x0)
1/ 4
1 p(u1 x0)
p(x0) 2 1/ 4 2 1/ 8 3
提供的信息量之和。
§2.1 单符号离散信源
小结: 不确定性的大小与事件发生的概率有关
不确定性是概率的函数
信息量可以表示为概率的函数。
研究信息→建立信源的模型
§2.1 单符号离散信源
二、单符号离散信源的数学模型
❖ 单符号离散信源:输出离散取值的单个符号的信源。
❖ 单符号离散信源是最简单、最基本的信源,是组成 实际信源的基本单元,可以用一个离散随机变量来 表示。
即条件概率p(xi ∣ yj) 。
⒉ 互信息量的定义
xi的后验概率与先验概率之比的对数为yj对xi的互信息量。
用I(xi; yj)表示。
互信息量等于自信息量减去条件自信息量
I (xi;
yj)
log
p( xi y j ) p(xi )
log p(xi) log p(xi y j )
( 1,2, , n ; j 1, 2, , m)
试求:⑴ 填上表格中的后三列 ⑵ x0与各消息的互信息量 ⑶ 在收到(给定)x0条件下,y1与各消息的互 信息量。 ⑷ 在收到(给定)x0y1条件下,z1与U3消息的 互信息量. ⑸ 收到整个代码组x0y1z1出现后提供的有关消 息U3的互信息量。
§2.1 单符号离散信源
信源消 二进制代码 先验

5(U5) 101(x1y0z1) 1/16
6(U6) 110(x1y1z0) 1/16
7(U7) 111(x1y1z1) 1/16
收到0后的 收到01后的 后验概率 后验概率
p(xi)
§2.1 单符号离散信源
由前式可得:
p(xi yjzk) p(xi yj)
p(xi yj)
p(xi yjzk)
I (xi; yjzk) log
p( xi )

p( xi
yj
)
log
p( xi )
log
p(xi yj)
I (xi; yj) I (xi; zk yj)
此外,还有:
⑷ 自信息量的物理含义: ❖ 自信息量是事件发生前,事件发生的不确定性。 ❖ 自信息量表示事件发生后,事件所包含的信息量。
⒊ 联合自信息量
定义:二维联合集XY上的元素(xi yj )的联合自信息量 定义为:
I(xiyj)=﹣㏒p(xiyj) 0≦p(xiyj) ≦1;∑∑ p(xiyj) =1
§2.1 单符号离散信源
获得信息量
§2.1 单符号离散信源
Xi 信道
Yj
⑵观察者站在输入端
❖ I(yj; xi)=logp(yj | xi)–logp(yj)=I (yj) – I(yj | xi)

观察者得知输入端发出 xi 前、后对输出端出
现 yj 的不确定度的差。
§2.1 单符号离散信源
❖ ⑶观察者站在通信系统总体立场上
I(xi; yjzk) I(xi; yj) I(xi; zk yj) I(xi; zk) I(xi; yj zk)
将上式两边相加有:
I(xi; yjzk) 1 I(xi; yj) I(xi; zk)
2
I(xi; zk yj) I(xi; yj zk)
§2.1 单符号离散信源
根据互易性有:
p(u2 x0) p(u2x0)
1/8
1 p(u3 x0)
p(x0) 21/ 4 21/ 8 6
p(u4 x0) p(u5 x0) p(u6 x0) p(u7 x0) 0
§2.1 单符号离散信源
信源消 二进制代码 先验

概率
0(U0) 000(x0y0z0) 1/4
1(U1) 001(x0y0z1) 1/4
2(U2) 010(x0y1z0) 1/8
3(U3) 011(x0y1z1) 1/8
4(U4) 100(x1y0z0) 1/16
5(U5) 101(x1y0z1) 1/16
6(U6) 110(x1y1z0) 1/16
7(U7) 111(x1y1z1) 1/16
收到0后的 后验概率
1/3 1/3 1/6 1/6 0 0 0 0
❖ 互信息等于通信前后不确定度的差值
1
1
I (xi ; y j ) log p(xi ) p( y j ) log p(xi y j )
I ' ( xi y j ) I '' ( xi y j )
I (xi ) I ( y j ) I (xi y j ) 通信前:X和Y之间没有任何关系,即X、Y统计独
§2.1 单符号离散信源
解:设棋子位置为xi, p(xi )=1/64 i=1,2,…,64; (1) I(xi yj)= – logp(xi yj )=6比特 (2) 设行号为xi,列号为yj,且已知列号,即: I(xi | yj) = – logp(xi | yj ) = – log[p(xi yj )/ p(yj )]
= -log[(1/64)/(1/8)]=3 比特 物理含义
§2.1 单符号离散信源
四、互信息量和条件互信息量
⒈ 互信息量的概念 在通信系统中,发送端发出的信息经有噪信道后,在
接收端收到的信息量的多少要用互信息量来描述。 ❖ 设X为信源发出的离散消息集合;Y为信宿收到的
离散消息集合; ❖ 信源发出的消息,经过有噪声的信道传递到信宿;
§2.1 单符号离散信源
其间信源X和信宿Y的数学模型为:
X p( x)
x1 p( x1)
x2 p( x2 )
, , , ,
xn 0≦p(xi) ≦1 p(xn) ∑p(xi)=1
Y p( y)
y1 p( y1)
y2 p( y2 )
, , , ,
ym p( ym )
0≦p(yj) ≦1 ∑p(yj)=1
概率
0(U0) 000(x0y0z0) 1/4
1(U1) 001(x0y0z1) 1/4
2(U2) 010(x0y1z0) 1/8
3(U3) 011(x0y1z1) 1/8
4(U4) 100(x1y0z0) 1/16
5(U5) 101(x1y0z1) 1/16
6(U6) 110(x1y1z0) 1/16
❖ 如果p(xi)=0,则I(xi ) → ∞ ; ❖ 如果p(xi)=1,则I(xi ) =0 ; ❖ 由两个相对独立的事件所提供的信息量,应等于它们分
别提供的信息量之和: I(xi yj)=I(xi )+I(yj)
§2.1 单符号离散信源
⑵ 自信息量定义为:
随机事件 Xi 的自信息定义为该事件发生概率的对数的负 值:
件的自信息
信息量的丢失,不确定性增加
§2.1 单符号离散信源
⒋ 条件互信息量 定义:联合集XYZ中,在给定Zk的条件下xi与 yj之间的互信息量定义为条件互信息量:
p(xi yjzk) I(xi; yj zk) log
p(xi zk)
在XYZ联合集上,还有xi与yjzk之间的互信息量
p(xi yjzk) I(xi; yjzk) log
收到01后的 后验概率
收到011后的 后验概率
§2.1 单符号离散信源
收到01后的后验概率:
p(u2 x0y1) p(u3 x0y1) p(u3x0y1)
1/6
1
p(x0y1) 2 1/6 2
p ( u0 x0y1)p ( u1 x0y1)p ( u4 x0y1) p( u5 x0y1)p( u6 x0y1)p( u7 x0y1)0
I ( xi ) I ( xi y j )
§2.1 单符号离散信源
❖ 互信息有两方面的含义:
❖ 表示事件yj出现前后关于事件xi的不确定性减少的量;
❖ 事件yj出现以后信宿获得的关于事件xi的信息量。
❖ 对互信息量的理解
⑴观察者站在输出端
Xi 信道
Yj
❖ I(xi;yj)=logp(xi|yj)–logp(xi)=I (xi) – I(xi|yj) ❖ I (xi) :在 yj 一无所知的情况下 xi 存在的不确定度; ❖ I(xi|yj) :收到 yj 后对 xi 仍然存在的不确定度; ❖ I(xi;yj):收到 yj 前和收到 yj 后不确定度被消除的部分
离散单符号信源X的概率空间:
X P(
X
)
x1 p(x1)
x2 ... p(x2) ...
xq
p(xq )
p(xi ) 0
n
p(xi ) 1
i 1
完备性
§2.1 单符号离散信源
三、信息量
⒈ 概率论的基本公式及性质(P.12) ⒉ 信息量
⑴ 自信息量的概念 有前分析我们可得出:
❖ 如果p(x1) < p(x2),则I(x1) > I(x2), I(xi )是 p(xi) 的单调 递减函数(成反比关系)
第二章 信 源 熵
相关文档
最新文档