高等教育《信息论》第3章离散信源

合集下载

《离散信源》课件

《离散信源》课件

3
哈夫曼编码的应用和优缺点
总结哈夫曼编码的应用和优缺点,以及如何使用哈夫曼编码进行无损展方向
列举几个离散信源理论在实际中 的应用案例,包括自然语言处理、 图像压缩等领域。
介绍离散信源理论在未来的发展 趋势,包括更精确的数据表示和 处理、更灵活的编码和压缩方法 等。
详细解释如何使用算术编码 对离散信源进行编码,以及 如何使用解码器进行解码。
算术编码的应用和局限 性
总结算术编码的应用场景, 并介绍算术编码的局限性。
哈夫曼编码
1
哈夫曼编码的定义及基本思想
介绍哈夫曼编码的定义和基本思想,以及如何根据概率分布构建哈夫曼树。
2
哈夫曼树的构建
深入阐述哈夫曼树的构建方法,包括如何从构建的树中获得每个符号的二进制哈 夫曼编码。
自信息、条件熵和相对熵
离散有记忆信源的定义
介绍自信息、条件熵和相对熵的 含义和计算方法,以帮助您更好 地理解信息论的基本概念及应用。
深入阐述离散有记忆信源的定义, 让您了解其如何在实际中应用。
算术编码
算术编码的基本思想
介绍算术编码的基本思想, 包括如何将符号映射到区间 和如何解码映射中的符号。
算术编码的实现
离散无记忆信源
1
离散无记忆信源的定义
解释什么是离散无记忆信源,提供实际
香农第一定理及其含义
2
例子,让您更好地理解此概念。
深入阐述香农第一定理,让您了解信息
是否可压缩的必要条件。
3
香农第二定理及其应用
介绍香农第二定理的应用,让您更好地 压缩信息并优化编码。
离散有记忆信源
马尔可夫链的概念及应用
详细解释马尔可夫链的概念和应 用,以便更好地理解离散有记忆 信源。

第3章 离散信道概述

第3章 离散信道概述
求: 1. 联合概率: p(xi yj)= p(xi)p(yj| xi)= p(yj)p(xi | yj) i=1,2,…,r;j=1,2,…,s
16
2. 输出符号概率: p( y j ) p( xi y j ) p( xi ) p( y j | xi )
i 1 i 1
1.离散单符号信道的数学模型 r r

问题:在什么条件下,通过信道的信息量最大,即
信道容量的问题。
3
信道的主要研究内容: 信道的分类和建模(信道的统计特性描述) √
信道传输信息的能力(信道容量) √
在有噪信道中能否实现可靠传输?怎样实现可靠 传输?
4
信道分类
按输入/输出信号的幅度和时间特性划分:
幅度 时间
信道分类名称
离散 离散 离散信道/数字信道(例如:数字电话) 连续 离散 连续信道 连续 连续 模拟信道/波形信道(例如:普通电话) 离散 连续 (理论和实用价值均很小)
5
信道分类

根据输入、输出信号的时间特性和取值特性,可以 将信号划分为:


离散信道:指输入输出随机变量均为离散的信道 连续信道:指输入输出随机变量均为离散的信道
Y y2
ys
i 1, 2,..., r ; j 1, 2,..., s
满足: (1)0≤ p(yj|xi) ≤ 1 (i=1,2,…,r;j=1,2,…,s) (2)
p( y
j 1
s
j
| xi ) 1
(i=1,2,…,r)
11
1.离散单符号信道的数学模型
信道传递概率可以用信道矩阵来表示:
PY PX PY | X
17
1.离散单符号信道的数学模型

第3章 离散信源

第3章  离散信源

离散有记忆信源

离散有记忆信源:信源先后发出的消息符号之间彼此 依存、互不独立的。 - 这类信源的数学表示比较困难; - 现实存在的信源多是离散有记忆信源; - 离散有记忆信源又可分为:有限记忆信源(马尔可 夫信源)和无限记忆信源。
信源分类小结
离散无记忆信源
单符号的无记忆离散信源 符号序列的无记忆离散信源 符号序列的有限记忆信源 符号序列的无限记忆信源
编码器 消息 信号 信 道 干扰 干扰器 译码器 消息 信 宿
信 源
在实际通信中最常见的信源有话音、文字、图像、数据等。
离散信源的数学模型

离散信源的数学模型
• •
信源可以输出多个符号,每个符号以一定的概率出现。 因此可以用概率来描述信源。
X x1 P p( x ) 1
则信源的熵为
x2 1 4
x3 1 4
1 1 1 1 H ( X ) p( xi ) logp( xi ) log 2 log 1.5 2 2 4 4 i 1
比特/符号
3
3.3.2 离散无记忆信源的扩展信源及其熵

可以一个符号一个符号的来研究信源,但有时这样不能满 足实际应用的需要。 • 汉语:更多地考察的是句子,而不是汉字。 • 英语:更多地考察的是单词,而不是字母。 • 图像:更多地考察的是整幅图像,而不是单个像素。 所以,有必要研究N次扩展信源。
我 们、要、的、把、看、… 碗、机、水、书、框、…
• •
p(们)=0.01,p(碗)=0.01 p(们|我)=0.05, p(碗|我)=0.001
有限记忆信源和无限记忆信源

离散有记忆信源分为 • 有限记忆信源 • 无限记忆信源 有限记忆信源 • 当记忆长度为m时称这种记忆信源为m阶马尔可夫信源, 即信源每次发出的符号与前m个符号有关,与更前面的 符号无关。

信息论第3章信源及信息熵

信息论第3章信源及信息熵

举例
数学描述
离散信源 (数字信源)
连续信号
文字、数据、 离散化图象
离散随机变量 序列
跳远比赛的结果、语音 连续随机变量
信号抽样以后
序列
波形信源 (模拟信源)
语音、音乐、热噪声、 图形、图象
不常见
随机过程
表3.1 信源的分类
3.1 信源的分类及其数学模型
我们还可以根据各维随机变量的概率分布是否随时间的推移 而变化将信源分为平稳信源和非平稳信源,根据随机变量间 是否统计独立将信源分为有记忆信源和无记忆信源。
定义3.2 随机变量序列中,对前N个随机变量的联合熵求平
均:
HN
(X)
1 N
H ( X1X 2
XN)
称为平均符号熵。如果当N
时上式极限存在,则
lim
N
H
N
(X)
称为熵率,或称为极限熵,记为
def
H
lim
N
H
N
(
X
)
3.3.1 离散平稳无记忆信源
离散平稳无记忆信源输出的符号序列是平稳随机序列,并且
H(X ) H(X1X2 XN ) H ( X1) H ( X2 | X1) H ( X3 | X1X 2 ) H ( X N | X1X 2 X N1)
定理3.1 对于离散平稳信源,有以下几个结论:
(1)条件熵 H (X N | X1X 2 X N1) 随N的增加是递减的;
(2)N给定时平均符号熵大于等于条件熵,即
s1
si p(s j
| si )
s q
m
状态空间由所有状态及状态间的状态转移概率组成。通过引
入状态转移概率,可以将对马尔可夫信源的研究转化为对马 尔可夫链的研究。

信息论第3章 离散信源

信息论第3章 离散信源

随机波形信源在某一固定时间t0的可能取值是连续和随 机的。对于这种信源输出的消息,可用随机过程来描述。 例:语音信号X(t)、热噪声信号n(t)、电视图像信号 X(r(t),g(t),b(t))等时间连续函数。
3.2离散无记忆信源
消息符号的自信息量
自信息量与熵
信源熵
3.3离散无记忆信源的扩展信源 离散信源 单符号离散信源 离散序列信源 离散无记忆信源 一般无记忆 平稳无记忆 离散有记忆信源 平稳序列信源 齐次马尔可夫链信源
3.3.1最简单的离散信源
3.3.2 N次扩展信源
例如在电报系统中,若信源输出的是二个二元数字组成的符号序列,此 时可认为是一个新的信源,它由四个符号(00,01,10,11)组成,我 们把该信源称为二元无记忆信源的二次扩展信源。
3.3.3 N次扩展信源的熵
3.4离散平稳信源
3.4.1平稳信源
二维平稳信源的熵-条件熵
平稳信源的熵-熵的可加性
二维平稳信源的熵-例题
3.4.3极限熵
N维平稳有记忆信源的熵
条件熵随N增加而递减
矢量熵H(X)
平均符号熵与极限熵
极限熵的意义
极限熵存在定理
定理证明
极限熵的计算
小结
3.5马尔可夫信源
《和初始状态无关,不是时间起点(时齐性)》
3.1.2 信源的分类
平稳随机序列信源
总体特点:信源输出的消息由一系列符号序列所组 成,可用N维随机矢量 X=(X1,X2,…,XN)描述,且 随机矢量X 的各维概率分布都与时间起点无关 平稳 !! 离散平稳信源:每个随机变量Xi (i=1,2,…,N)都是 离散型随机变量 连续平稳信源:每个随机变量Xi (i=1,2,…,N) 都是 取值连续的随机变量

第三章离散信源

第三章离散信源

p(xi )
? 熵函数的自变量是X,表示信源整体,实质上是无
记忆信源平均不确定度的度量。试验后平均信息
量为熵
不确定性=携载的信息
? 单位:以2为底,比特/符号
? 为什么要用熵这个词与热熵的区别?
例3.2.1二元熵函数是对0-1分布的随机变量所求的熵:
X
0
1

P(x)
p
1-p
则: H(X) = -plogp-(1-p)log(1-p)=H(p)
? ?X
??P( X
? )??
?
? x1,
? ?
p(
x1
),
x2,? , p(x2 ),?
xi ,? , , p(xi
),?
,
p(
xn ? xn )??
,
n i?1
p(xi )
?
1
则信源X的N次扩展信源用 X N来表示,该新信源有 nN个元素(消息序列)
取值于同一集合
,且分量之间
统计{ 独x1 ,立x 2,, ? 则, x由n }随机矢量 X 组成的新信源称为
离散无记忆信源 X的N次扩展信源。
离散无记忆信源 X的N次扩展信源 (或称序列信 源)的熵就是离散信源 X的熵的N倍。
H ( X N ) ? NH ( X )
理解
若单符号离散信源的数 学模型为 :
qN
qN q
? P(? i ) ? ?? P(aik ) ? 1
i?1
i? 1 ik ? 1
有记忆信源:输出的随机序列 X中各随机变量 之间有依赖关系,但记忆长度有限。 m阶马尔可夫信源:信源每次发出的符号只与 前m个符号有关,与更前面的符号无关。
P(xi |? xi?2xi?1xi?1xi?2xi?3 ? xi?m ? xi?1)

离散信源

离散信源

32
初始 状态 状态 序列
00 02 10 30 00 02 22 20
10 01 11 12 23 31 30 03 33 32 21 13
状态分布
P(00)= 1 p( 其他) 0 P(02/22/20) =1/3 p( 其他)= 0 P(10/01/11/12/ 23/31) =1/6 p( 其他)= 0
35


定理3-3 设P为马尔可夫信源的一步状态转 移矩阵,该信源为平稳马尔可夫信源的充 要条件是存在一个正整数N,使矩阵PN中所 有的元素大于0。 例3-13
36

2.平稳马尔可夫信源的熵 平稳马尔可夫信源中nm个状态出现的概率能够 逐渐稳定下来,不再发生变化。设达到稳定发布 后,各个状态的概率为p(S1) , p(S2) ,p(S nm ),那平稳马尔可夫信源的熵是-∑ p(Si)log p(Si)吗?当然不是。 因为信源的熵指信源符号带有的信息量的平均 值。并且它和离散无记忆信源的信源熵定义也是 有区别的,因为信源符号出现的概率与已经出现 的符号有关。
24

3.4.2有限状态马尔可夫链 马尔可夫链并不是信源,它体现的是一种 状态和状态之间的一环扣一环的性质,因 此称为链。 定义3-6 一个状态序列:s1,s2,…sl,…,若满足 以下条件 1.有限性 J<∞ 2.马氏性p(sl/sl-1sl-2…s1)=p(sl/sk) 则称此随机序列为有限状态马尔可夫链。
26


描述马尔可夫链的数学工具是状态转移矩 阵和状态转移图。 已知系统当前处于状态 sk ,则系统将要达 到的状态sl的概率为pkl=p(sl/sk),由于所有可 能的状态有J个,因此共有J*J个这样的概率 组成一个矩阵

第三章 离散信源

第三章  离散信源

2.1 离散无记忆信源
z 离散单符号信源:输出离散取值的单个符号
离散单符号信源是最简单、最基本的信源,是组 成实际信源的基本单元。
z 离散单符号信源X的概率空间:
⎡ ⎢ ⎣
X P( X
⎤ )⎥⎦
=
⎡ ⎢ ⎣
x1 p( x1 )
x2 L p(x2 ) L
xq ⎤ p(xq )⎥⎦
p(xi ) ≥ 0
q
3.1 预备知识
定义1:对于离散随机变量序列 X1X 2 L X n L,若任意 两个不同时刻i和j(大于1的任意整数)信源发出消息的 概率分布完全相同,即对于任意的 N = 0,1, 2,L,Xi Xi+1L Xi+N 和 X j X j+1L X j+N 具有相同的概率分布。也就是
P(X i ) = P(X j ) P( X i X i+1) = P( X j X j+1) P( Xi Xi+1 L Xi+N ) = P( X j X j+1 L X j+N )
离散
取值 离散 连续
信源种类
举例
消息的数学描述
离散信源 (数字信源 )
连续信源
文字、数 据、数字 化图像
离散随机变量序列 连续随机变量序列
连续 连续
连续 离散
波形信源 (模拟信源 )
语音、音 乐、图形 、图像
不常见
随机过程
1.1 信源的分类
z 根据信源发出的消息序列之间是否有统计依赖 关系,信源可分为有记忆信源/无记忆信源。
解: (1) ¾ 离散单符号信源熵
3
∑ H ( X ) = − p ( x i ) lo g 2 p ( x i ) = 1 .5 b it i =1
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

X
P
x1
px1
x2
px2
xq
p
xq
(3.5)8
信源输出信息量的度量
定义 3.2.2 设信源 X 中,事件 xi 发生的概率为 pxi ,
则所含有的自信息量定义为
de f
I xi log pxi
(3.6)
定义 3.2.2 给出的自信息量的函数形式有如下性质:
① 信源中信息的量度与输出符号发生的概率有关。
000, 001, 011, 111,100,110, 010,101
5
3.1.2 信源的分类 无记忆信源
① 离散无记忆信源 信源发出的消息符号彼此是统计独立的,并且具有
相同的概率分布,其 N 维随机矢量的联合概率分布为
N
N
p X p X k aik pik
k 1
k 1
i 1, 2, , q
其中 N 可为有限正整数或可数无穷值。通常,总限定 N 是有限的,故只限于讨论“有限离散信源”。若在这随机
矢量中的每个随机变量Xk , k 1, 2, , N 都是离散的,则可 用N重离散概率空间的数学模型来描述这类信源。
X
P
a1
pa1
a2
pa2
aqN p aqN
(3.4)
其中
9
自信息量 I xi 是指某一信源发出某一消息符号 xi 所含
有的信息量,所发出的信息符号不同,它们含有的信息量
也就各不相同,故自信息量 I xi 是一个随机变量,不能用
它来作为整个信源输出信息的信息测度。为此,需要引入 平均自信息量,即信息熵来作为信源输出信息的信息测度。
定义 3.2.3 信源输出的各消息的自信息量的数学期望为 信源的平均自信息量,或称为信源的信息熵。
第 3 章 离散信源
3.1 信源的数学模型及其分类
3.1.1 信源的数学模型
信源的具体输出称作消息,它是随机的,可以用随机 变量或随机过程来描述信源发出的消息,也就是可以用概 率空间来描述信源。信源的数学模型可用如下概率场来描 述
其中
X
P
x1
px1
x2
px2
xq
p
xq
pxi 0
X X k , k 1, 2, , N
X k A a1, a2 , , aq
k 1, 2, , N
aj AN
j 1, 2, q N
AN aik , i 1, 2, , q; k 1, 2, , N
可见,随机序列 X X1, X 2, , X N 的取值 X a j , j 1, 2, , qN
H
X
1 2
log 2
2
1 4
log 2
4
1 8
log 2
8
1 8
log 2
8
7 4
比特 / 符号
11
3.3 离散无记忆信源的扩展信源
3.3.1 最简单的离散信源
最简单的离散信源的输出可用一维离散随机变量描述。 设一个离散无记忆信源 X 的概率空间为
X
P
a1
pa1
a2
pa2
p xi | xi1, xi2, , xim, p xi | xi1, xi2, , xim
其中 m 为阶数,称作记忆阶数。当 m=1 时,可用简单 马尔可夫链描述。此时的条件概率转化为状态转移概率
p ji p xi ai | xi1 a j
7
3.2 离散无记忆信源
离散无记忆信源是最简单,也是最基本的一类信源, 它可用完备的离散型概率空间来描述。
通常 q 为有限正数,也可为可数无穷大。
(3.2)
2
② 连续信源的数学模型
其数学模型为连续型的概率空间:
X a,b
P
px
(3.3)
其中 px为连续随机变量 X 的概率密度函数,a,b 为 X
的存在域,且
px 0
b
a
px dx
1
3
信源输出可用 N 维随机矢量 Xk , k 1, 2, N 来描述,
k 1, 2, , N
② 连续无记忆信源
若在 N 维随机矢量 X 中,每个随机变量 X k 是连续随 机变量,且相互独立,则 N 维随机矢量 X 的联合概率密 度函数为
N
pX pk
6
k 1
有记忆信源
无限记忆信源
有限记忆信源
有限记忆信源可用有限状态马尔可夫链来描述。当信 源记忆长度为 m+1 时,也就是信源每次发出的符号仅与前 m 个符号有关,与更前面的符号无关。这样的信源称为 m 阶马尔可夫信源。此时可用条件概率分布描述信源的统计 特性。
q
pxi 1
i 1
i 1,2, , q
即信源的概率空间是完备。
(3.1)
1
① 离散信源的数学模型
其数学模型为离散型的概率空间:
X
P
a1
pa1
a2
pa2
aq paq Nhomakorabea其中 且
pai PX ai pai 0
q
pai 1
i 1
i 1,2, , q i 1,2, , q
q
H X EI xi pxi log pxi
(3.7)
i 1
信源熵 是从平均意义上表征信源总体统计特征的一个 量,是信源的统计平均不确定性的描述。
10
例:设信源符号集 X x1, x2, x3, x4 每个符号发生的概
率分别为
px1
1 2
,
px2
1 4
,
px3
1 8
,
px4
1 8

则信源熵为
定义 3.2.1 设信源X输出符号集 x x1, x2 , , xq , q
为信源发出的消息符号个数,每个符号发出的概率为
pxi ,i 1,2, , q 。这些消息符号彼此互不相关,且有
q
pxi 1
i 1
pxi 0
i 1,2, , q
则称 X 为离散无记忆信源。
由定义3.2.1可知,一个离散无记忆信源可用下面概 率场来描述:
该函数 I xi 是先验概率 pxi 的单调减函数。即
② 随着某一符号发生的概率的增加,它们所包含的不 确定性应减少。
③ 当先验概率 pxi 1 时,Ixi 0; pxi 0 时,Ixi 。
④ 信息量的定义应满足可加性,即满足泛函方程。
f 1 f 1 f 1
n m mn
的个数 qN ,取决于序列长度N和符号集 A ai ,i 1,2, ,q
的符号个数 q 。
4
例:
A 0,1, q 2, N 3
X X k , k 1, 2, 3
X k A 0,1
k 1, 2, 3
a j A3
j 1, 2, 23
A3 aik ,i 1, 2; k 1, 2, 3
相关文档
最新文档