第二章 信源及其信息量 李伟
信息论与编码-第4讲-第2章信源及信息度量(修改最新)

1) 如果二进制信源的输出是确定的(p=1),则该信源不提 供任何信息;
2) 当二进制信源符号0和1等概率发生时,信源的熵达到最
大值,等于1比特信息
3) 二元数字是二进制信源的输出。在具有等概率的二进制 信源输出的二进制数字序列中,每一个二元数字提供1比特 的信息量。如果符号不是等概率分布,则每一个二元数字 所提供的平均信息量总是小于1比特。这也进一步说明了 “二元数字”(计算机术语称“比特”)与信息量单位 “比特”的关系。
p(a1|b2)=0.75
p(a2|b1)=0.75
p(a2|b2)=0.25
根据条件熵的计算表达式可得
H(X|Y)=-p(a1,b1) logp(a1|b1)-p(a1,b2) logp(a1|b2) -p(a2,b1) logp(a2|b1)-p(a2,b2) logp(a2|b2) =0.406比特/符号
以熵H(X)≥0;
只有当随机变量是一确知量时,熵H(X)=0。 这种非负性对于离散信源的熵是合适的,但对连续信源来 说这一性质并不存在。
(2) 对称性
① 定义:当变量p(x1),p(x2),…,p(xn) 的顺序任意互换时,熵
函数的值不变,即
H[ p( x1 ), p( x2 ),, p( xn )] H[ p( xi1 ), p( xi2 ),, p( xin )] ,其中i1, i2 ,in 1,2,, n
H ( X ) E[log p (1xi ) ] p( xi ) log p (1xi )
i 1
r
为了求得整个信源所提供的平均信息量,首先
,我们应当了解数学中有关三种不同类型的平均方
法以及它们各自的计算公式。这三种平均方法分别
第二章 信源的信息量

非平均互信息
传送消息 X1 X2 X3 X4 X5 X6 X7 X8 码字 000 001 010 011 100 101 110 111
Wuhan University
例2.1.1 观察先验等概时后验概率的变化
P(xk)
1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 看到0 P(Xk|0) 1/4 1/4 1/4 1/4 0 0 0 0 看到01 P(Xk|01) 0 0 1/2 1/2 0 0 0 0 看到011 P(Xk|011) 0 0 0 1 0 0 0 0
0 p p
1
1-p
0
非单调 变化
1 1-p
信息量与后验概率有关。后验概率越
大,得到的信息量越大。
9
非平均互信息
Wuhan University
互信息要满足的条件
10
非平均互信息
Def. 互信息
Wuhan University
给定一个二维离散型随机变量 {(X, Y), (xk, yj), k=1~K; j=1~J},事件xk∈X与事件yj∈Y的互信息 量定义为 P ( xk | y j ) P ( xk , y j )
特殊性质 I(xk|yj)=I(xk)-I(xk; yj)
21
非平均自信息
•
Wuhan University
Def. 联合自信息
事件xk和事件yj的联合自信息定义为
I(xk yj)= -log p(xk yj)
联合的非平均自信息量实际上是非平均自信息 量的简单推广。即可以将(X,Y )直接看成是一维的 随机变量。
20
非平均自信息
Wuhan University
信息论 第2章 离散信源及其信息

合肥学院胡学友
22
2.2.1 自信息
信源发出某一符号 xi (i = 1,2, L, n) 后,它提供多 少信息量?这就是要解决信息的度量问题。 在通信的一般情况下,收信者所获取的信息量, 在数量上等于通信前后不确定性的消除(减少)的 量。
2011-7-22
合肥学院胡学友
23
具体地说,如信源发某一符号ai,由于信道中 噪声的随机干扰,收信者收到的一般是ai的某 种变型bi.收信者收到bi后,从bi中获取关于ai 的信息量,如果以I(ai;bi)表示, 则有I(ai;bi) =收到bi前,收信者对ai存在的不确定性(先验 不定度)—收到bi后,收信者对ai仍然存在的不 确定性(后验不定度) =收信者收到bi前、后,对ai存在的不确定性的 消除。 2011-7-22 24 合肥学院胡学友
6
a2 1 6
a3 1 6
a4 1 6
a5 1 6
a6 1 6
∑ p (a ) = 1
i =1 i
2011-7-22 合肥学院胡学友
完备集
4
X a1 p ( x) = p (a ) 1
q
a2 L aq p(a2 ) L p(aq )
离散情况
2011-7-22 合肥学院胡学友 10
• 若信源输出的N维随机矢量 ,每个 uu v X = ( X 1 , X 2 ,L , X N ) 随机变量 (i=1, 2, …, N) 都是取值为连续 Xi 的连续型随机变量,即每个随机变量的可 能取值是不可数的无限值。而且随机矢量 的各维概率密度函数都与时间起点无关, 也就是说,在任意两个不同时刻随机矢量 的各维概率密度函数都相同,这样的信源 称为连续平稳信源
信息论第2章(2010)

ai 后所获得的信息量。
自信息量的性质:
1)非负性。 2) 单调递减性。 3) 可加性。
I xi ,y j log pxi ,y j
若两个符号x i , y j同时出现,可用联合概率px i , y j 来表示 这时的自信息量为 I y j I xi | y j
例题:二元信源,每个符号发生的概率分别为p(x1)=p,p(x2)=1-p. 试计算信源熵,并画出熵函数H(p)和p的曲线图。
① 等概时(p=0.5):随机变量具有最大的不确定性
② p=0或1时:随机变量的不确定性消失。
信息熵的物理意义
1)表示了信源输出前,信源的平均不确定性。 2)表示了信源输出后,每个消息或符号所提供的 平均信息量。 3)信息熵反映了变量X的随机性。
平均自信息量H (X ) 表示信源输出消息中的每个符号所含信息量的统计 平均值,其表达式为 q
H ( X ) EI ( xi ) P( xi ) log P( xi )
i 1
式中, E 表示统计平均,
I ( xi ) 表示符号 x i 包含的自信息量。
平均信息量可以表示为:
任何一个物理量的定义都应当符合客观规律和逻辑上 的合理性,信息的度量也不例外。直观经验告诉我们: ① 消息中的信息量与消息发生的概率密切相关:出现消 息出现的可能性越小,则消息携带的信息量就越大。 ② 如果事件发生是必然的(概率为1),则它含有的信息 量应为零。如果一个几乎不可能事件发生了(概率趋 于0),则它含有巨大的信息量。 ③ 如果我们得到不是由一个事件而是由若干个独立事件 构成的消息,那么我们得到的信息量就是若干个独立 事件的信息量的总和。
② 联合信源中平均每个符号对所包含的信息量?
第二章信源及信源的熵

Pij的性质: Pij ( m, n ) 0,i, j S
Pij (m, n ) 1,
jS
i S
17
齐次马尔可夫信源的状态转移概率: 齐次:状态转移概率与时间无关
{
无记忆信源 有记忆信源
(1)单符号信源和符号序列信源 前述各离散或连续信源都是单符号信源----信源(试验) 每次发出一个符号(消息的长度为1)。 更多信源输出的消息需要用多个符号(即符号序列)来表示 ,如:随机取球试验,一次取两个球。多少种消息?
8
3种消息:“红红”、“白白”、“红白或白红”;用符号序 列表示 个消息。这种信源称为符号序列信源。 (2)符号序列信源用多维随机变量(随机矢量或随机序列)及 其概率空间来描述。如上面的离散符号序列信源:
7
X [0,1.5] pX (x) pX (x)
任意连续信源 的数学模型为
1.5
,
pX (x)d x 1
0
X [a,b] p X (x) p X (x)
b
,
a
pX (x)d x 1
2、按照信源发出的符号之间的关系分类: 信源
香农第二章信源及信源熵第一节信源的描述和分类第二节离散信源熵和互信息第二节离散信源熵和互信息3第三节连续信源的熵和互信息第四节离散序列信源的熵第五节冗余度第一节信源的描述和分类一消息的统计特征香农信息论运用概率论和随机过程的理论来研究信息
复
1、信息的定义:
习
信息是指各个事物运动的状态及状态变化的形式。 是事物运动状态或存在方式的不确定性的描述。 2、信息论的定义 关于信息的本质和传输规律的科学理论,是研究信息的度 量、发送、传递、交换、接收和储存的一门新兴学科。它为 各种具体的信息技术提供理论依据,而信息技术则以此为根 据去研究如何实现、怎样实现的问题。 3、信息、消息和信号的关系:
第二章基本信息论1_信源不确定性-精品文档

X 0 1 2 3 4 5 6 7 8 9 例 3 : p ( X ) 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1
信息速率和信道容量的概念,离散有噪
信道的熵速率,可疑度的物理解释,连 续有噪信道的信道容量
三种多用户信道模型及其信道容量 信源编码原理,等长编码和变长编码
常用的信源编码:山农费诺编码、哈夫
曼编码和L-D编码
本章作业
P113: 1-9,11,15,17,20,21
2.1 信源及信源的不确定性
发生概率小的事件不确定性大, 发生概率大的事件不确定性小 4)两个独立事件的联合信息量应等于它们分别 信息量之和
三、信息度量
信源消息 x i 的自信息量:
Ix () l o g p () x i i
表示信源发出一个消息 x i 所含有(或所提供)的 非平均自信息量
ห้องสมุดไป่ตู้
也表示通信发生前,信源发送消息 x i 的不确定度。
n
p (x gp (x i )lo i)
即信源的非平均不确定度
条件自信息量
I (/ x ) l o g p (/ x ) i y j i y j
y 已 知 的 条 件 下 , 发 生 x 所 带 来 的 信 息 量 j i
信宿接收到消息 y j 后,对信源发送消息 x i 尚存的不 确定度。
从信宿端看,信息量的定义:
I(信息量)=不肯定程度的减少量
log p( xi / y j ) p( xi )
第二章信源与信息度量习题-精品

第二章信源与信息度量习题-精品2020-12-12【关键字】方案、空间、系统、平稳、合理、规律、稳定、需要、标准、关系、设置1. 某大学设置五个学院,每个学院的学生数分别为学院: 数学 物理 外语 外贸 医学人数: 300 400 500 600 200问“某学生王某是外语学院学生”这一消息提供的信息量是多少?2. 同时扔出两个正常的骰子,也就是各面呈现的概率都是1/6,求:(1) 事件“2和5同时呈现”的自信息量;(2) 事件“两个4同时呈现”的自信息量;(3) 事件“至少呈现一个1”的自信息量。
3. 字母“e ”在英文中出现的概率是0.103,字母“c ”出现的概率为0.022,字母“x ”出现的概率是0.001,求这些字母各自的自信息量。
4. 某电子厂共能生产A 、B 、C 、D 四种仪器,其中A 因技术落后停产了,B 占全部产量的20%,C 占30%,D 占50%。
有两个消息“现在完成1台仪器B ”,和“现在完成1台仪器C ”,试确定哪一种消息提供的信息量大些?其中有什么规律?5. 某地,35%的女孩上大学,65%的女大学生身高超过1.6米,而一个女孩身高超过1.6米的概率是50%,现有一条消息:说某一个身高超过1.6米的女孩是大学生,求这条消息的信息量。
6. 试求:(1) 在一付标准的扑克牌中抽出一张(每张牌均认为是不同的)的平均信息量。
(2) 若扑克牌仅按它的等级鉴定而不问它的花色(大、小王属同一等级),重复上述计算。
7. 某地的天气预报为:晴(占4/8),多云(占2/8),雨(占1/8),雪(占1/8),冰雹(占0/8);而当地老农对天气的预测只能做到:晴(占7/8),雨(占1/8)。
试求两者对天气预报各自提供的平均信息量,并说明从中得到的规律。
8. 某离散无记忆平稳信源的概率空间为:12340123()3/81/41/41/8X x x x x p X ====⎧⎫⎡⎤=⎨⎬⎢⎥⎩⎭⎣⎦,若某消息符号序列为:202 120 130 213 001 203 210 110 321 010 021 032 011 223 210,求:(1) 该消息的自信息量;(2) 该消息平均每个符号携带的信息量。
第二章信源及其信息量

2
1 2
3
计算出各事件Байду номын сангаас自信息量列表2-1如下:
消息xi 概率分布q (xi) 自信息量I (xi)
x1 1/3 log 3
x2 1/6 log 6
x3 1/2 log 2
自信息量I(ai)代表两种含义:
1.事件ai发生以前,表示事件发生的先验不确定性
x1 x2 x3 X 3 x0 (3)信源三: 等概信源 q ( X ) 0 . 25 0 . 25 0 . 25 0 . 25 3 熵 H(X3) = -4×0.25 log 0.25 = log4 = 2(比特/符号)
(4)信源四: 信源为确定事件
⑵.平均互信息量
定义xi ∈ X和yj ∈ Y之间的互信息量为I(xi ;yj ),在集合X上对 I(xi ;yj )进行概率加权统计平均,可得I(X;yj)为:
I ( X ; y j ) p xi y j I ( xi ; y j ) p xi y j log
i i
p ( xi y j ) p ( xi )
第2章 离散信源及其信息熵
内容提要: 根据香农对于信息的定义,信息是一个系 统不确定性的度量,尤其在通信系统中, 研究的是信息的处理、传输和存储,所以 对于信息的定量计算是非常重要的。本章 主要研究离散信源下各种信息的定量计算 ,讨论它们的性质和相互关系。
2.1 信源基本分类及其数学模型
在通信系统中,收信者在未收到信息以前, 对信源发出什么样的消息是不确定的,是随机的, 所以可以用随机变量、随机矢量或随机过程来描 述信源输出的消息,或者说用一个样本空间及其 概率测度来描述信源。 不同的信源根据其输出消息的不同的随机性 质进行分类。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2.2.2
离散集的平均自信息量
⑴ 平均自信息量(熵) 人们注意的是整个系统的统计特性,当信源各个消息的出现概率 相互统计独立时,这种信源称为无记忆信源,无记忆信源的平均自 信息量定义为各消息自信息量的概率加权平均值(统计平均值), 即平均自信息量H(X)定义为:
(2)非负性:H(X) 0 (3)确定性:在集合X = (x1,x2,…,xN)中,若有一个 事件是必然事件,则其余事件必为不可能事件,即该集合的 概率分布为 x x x x
1 0
2 i
0
1
0
N
(4)可加性:
集合X = {x1,x2,…,xi,xi+1,…,xN}的概率分布为:
x 2 xi xi 1 x N x1 p( x ) p( x ) p( x ) p( x ) p( x ) 2 i i 1 N 1
则下式成立:
H(X)= H(x1,x2,…,xi,xi+1,…,xN)
pi pi 1 H ( x1 , x2 ,, xi 1 , xi xi 1 , xi 2 ,, xN ) ( pi pi 1 ) H ( , ) pi pi 1 pi pi 1
⑵.平均互信息量
定义xi ∈ X和yj ∈ Y之间的互信息量为I(xi ;yj ),在集合X上对 I(xi ;yj )进行概率加权统计平均,可得I(X;yj)为:
I ( X ; y j ) p xi y j I ( xi ; y j ) p xi y j log
i i
p ( xi y j ) p ( xi )
x1 1
熵H(X4) = - 0 log 0 –1 log 1 = 0 计算结果说明确定事件的熵为零 (5) 信源五:一般情况下,二元信源的概率分布为
H 2(δ )
1 X 5 0 q( X ) 1 5 熵 H(X) = –δ log δ -(1-δ )log(1-δ ) 记H2(δ ) = –δ log δ -(1-δ )log(1-δ ) H2(δ )与δ 的关系如图2-2所示。
⑷平均互信息量与信源熵、条件熵的关系 I(X;Y)= H(X)-H(X︱Y)
I(X;Y)= H(Y)-H(Y︱X)
I(X;Y)= H(X)+ H(Y)- H(XY )
I X ; Y
H X Y
H Y X
它们之间 的关系可 以用维拉 图表示
H X
H Y
H X , Y
针对信源X某一单个消息或符号
ai
I (ai ) log p(ai )
【例2.1】若盒中有6个电阻,阻值为1Ω 、2Ω 、3Ω 的分别 为2个、1个、3个,将从盒子中取出阻值为iΩ 的电阻记为事 件 x i (i = 1,2,3),则事件集X = {x1, x2, x3},其概率 分布 x x x
第2章 离散信源及其信息熵
内容提要: 根据香农对于信息的定义,信息是一个系 统不确定性的度量,尤其在通信系统中, 研究的是信息的处理、传输和存储,所以 对于信息的定量计算是非常重要的。本章 主要研究离散信源下各种信息的定量计算 ,讨论它们的性质和相互关系。
2.1 信源基本分类及其数学模型
在通信系统中,收信者在未收到信息以前, 对信源发出什么样的消息是不确定的,是随机的, 所以可以用随机变量、随机矢量或随机过程来描 述信源输出的消息,或者说用一个样本空间及其 概率测度来描述信源。 不同的信源根据其输出消息的不同的随机性 质进行分类。
i j i j i j i j i j
p( xi y j )
从通信角度来看: 若将X = {x1,x2,…,xi,…}视为信源输出符号; Y = {y1,y2,…,yj,…}视为信宿接收符号; 从通信角度来看,H (X︱Y)是收到确定消息yj后,由 于信道干扰,关于发送的是否为xi仍具有的疑义度, 故称H (X︱Y)为疑义度(损失熵)。 存在以下两种极端情况:
H X
q( x )I ( x ) q( x ) log q( x )
i i i i i i
H(X)的表达式与统计物理学中的热熵具有相类似 的形式,在概念上二者也有相同之处,故借用熵
这个词把H(X)称为集合X的信息熵,简称熵。
【例2.3】计算下列信源的熵
x1 (1)信源一: X 2 x0 q ( X ) 0.99 0.01 2
(1)对于无噪信道H (X︱Y) = 0 (2)在强噪声情况下,收到的Y与X毫不相干 ,可视为统计独立,H (X︱Y) = H (X)
从通信角度来看,H (Y︱X)是发出确定消息xi后,由 于信道干扰而使yj存在的平均不确定性,称H (Y︱X) 为噪声熵(散布度)。 存在以下两种极端情况: (1) 对于无扰信道,有H (Y︱X) = 0。
再将式对集合Y进行统计平均,就可以得到平均互信息量
I X ; Y p( xi y j ) I ( xi ; y j ) p( xi y j ) log
i j i j
p( xi y j ) p( xi ) p( y j )
当X,Y统计独立时,I(xi ;yj )= 0,从而I(X ; Y)= 0
维拉图
从通信的角度来讨论 平均互信息量I(X ; Y) 的物理意义
由第一等式I(X;Y)= H(X)-H(X︱Y)看I(X;Y)的物理意义
设X为发送消息符号集,Y为接收符号集,H(X)是输入集的平均 不确定性,H(X︱Y)是观察到Y后,集X还保留的不确定性,二 者之差I(X;Y)就是在接收过程中得到的关于X,Y的平均互信息量。 对于无扰信道,I(X ; Y)=H(X)。
0 0.5 1 δ 图 2-2 H2(δ )与δ 关系
⑵.平均条件自信息量(条件熵) 若事件xi, yj的联合分布概率为p(xi yj ),给定yj条 件下事件xi的条件自信息量为I (xi︱yj),则H (X ︱Y) 定义为:
H(X Y)
p(x y )I (x y ) p(x y ) log
2 平均互信息量的性质
(1)
非负性: I X ; Y 0
I(X ; Y)= I(Y ; X)
(2) 互易性: 由 I X ;Y
i j
p( xi y j ) log
p( xi y j ) q( xi ) ( y j )
的对称性可得到。
(3)
I X ;Y H X I X ; Y H Y
x1 x2 x3 X 3 x0 (3)信源三: 等概信源 0.25 0.25 0.25 0.25 q ( X 3 ) 熵 H(X3) = -4×0.25 log 0.25 = log4 = 2(比特/符号)
(4)信源四: 信源为确定事件
X 4 x0 q( X ) 0 4
。
I ( xi ; y j ) I ( xi ) I ( xi y j ) log
p ( xi y j ) p ( xi )
称上式为事件xi和事件yj之间的互信息量。 注:式I(xi ;yj ) 和式I(xi,yj )的区别在于: 前者是事件xi∈X和事件yj∈Y之间的互信息量, 后者是二维空间XY 上元素xi yj 的自信息量。
X 1 q( X ) 1 3
2
1 6
1 2
3
计算出各事件的自信息量列表2-1如下:
消息xi 概率分布q (xi) 自信息量I (xi)
x1 1/3 log 3
x2 1/6 log 6
x3 1/2 log 2
自信息量I(ai)代表两种含义:
1.事件ai发生以前,表示事件发生的先验不确定性
?思考题:
若有6行8列的棋方格看,现有A,B两个质点分别以 等概率落入方格内,但两质点不能落入同一格内 ,若A,B是可分辨的,求A,B同时落入的平均自信 息量。
2.2.3 互信息量
⑴.互信息量 从通信的角度引出互信息量的概念 信源符号X={x1,x2,…,xI} ,xi∈{a1,a2,…,ak},i = 1, 2 ,…, I。 经过信道传输,信宿方接收到符号 Y = {y1,y2,…,yJ},yj∈{b1,b2,…,bD},j = 1, 2, …,J。 {x1,x2,…xI} {y1,y2,…yJ}
2.当事件ai发生以后,表示事件ai所能提供的最大 信息量(在无噪情况下)
联合自信息量
二维联合集X Y上元素xi yj的联合自信息量I(xi yj)定义为:
I ( xi y j ) log p( xi y j )
条件自信息量
在已知事件yj条件下,随机事件xi发生的概率为条件概 率p(xi︱yj),条件自信息量 I ( xi y j )定义为:
1、离散信源 数学模型如下:
X a1 P p 1
a2 p2
... ...
xq pn
p
i 1
q
i
1
集合X中,包含该信源包含的所有可能输出 的消息,集合P中包含对应消息的概率密度,各 个消息的输出概率总和应该为1。
例:天气预报 无记忆信源 X的各时刻取值相互独立。
熵 H(X1) =-0.99 log 0.99 - 0.01 log 0.01 = 0.08(比特/符号)
(2)信源二:等概信源
X 2 x0 x1 q( X ) 0.5 0.5 2
熵 H(X2) = - 0.5 log 0.5 - 0.5 log 0.5 = 1(比特/符号)