信息论与编码 曹雪虹 PPT
合集下载
信息论与编码,曹雪虹,课件第2章-2

信息论与编码
第二章
信源与信息熵
内容
2.1 信源的描述和分类 2.2 离散信源熵和互信息 2.3 离散序列信源的熵 2.4 连续信源的熵和互信 2.5 冗余度
3
信源的分类
• 离散信源
– 指发出在时间和幅度上都是离散分布的离散 消息的信源,如文字、数字、数据等符号都 是离散消息。
{ 离散
{ { 信源
W1
W2
W3
W4
• 稳态分布概率
W1
3 35
,
W2
6 35
,
W3
6 35
,
W4
4 7
• 稳态后的符号概率分布
p(a1)
i
p(a1
|
si
)
p(siΒιβλιοθήκη )1 23 35
1 3
6 35
1 4
6 35
1 5
4 7
9 35
p(a2 )
i
p(a2
|
si )
p(si )
1 2
3 35
2 3
6 35
(1)1/2
s2 01
00 s1
(0)1/4
(0)1/3 (1)3/4
10 s3
(1)2/3
s4 0 2 / 3 0 4 / 5
11 (0)1/5
s4
(1)4/5
8
Wi pij W j
i
1 2
W1
1 2
W1
W1 W2 W3 W4 1
1 3
W2
2 3 W2
1 2
W3
3 4
W3
1 5
W4
4 5 W4
3 4
6 35
第二章
信源与信息熵
内容
2.1 信源的描述和分类 2.2 离散信源熵和互信息 2.3 离散序列信源的熵 2.4 连续信源的熵和互信 2.5 冗余度
3
信源的分类
• 离散信源
– 指发出在时间和幅度上都是离散分布的离散 消息的信源,如文字、数字、数据等符号都 是离散消息。
{ 离散
{ { 信源
W1
W2
W3
W4
• 稳态分布概率
W1
3 35
,
W2
6 35
,
W3
6 35
,
W4
4 7
• 稳态后的符号概率分布
p(a1)
i
p(a1
|
si
)
p(siΒιβλιοθήκη )1 23 35
1 3
6 35
1 4
6 35
1 5
4 7
9 35
p(a2 )
i
p(a2
|
si )
p(si )
1 2
3 35
2 3
6 35
(1)1/2
s2 01
00 s1
(0)1/4
(0)1/3 (1)3/4
10 s3
(1)2/3
s4 0 2 / 3 0 4 / 5
11 (0)1/5
s4
(1)4/5
8
Wi pij W j
i
1 2
W1
1 2
W1
W1 W2 W3 W4 1
1 3
W2
2 3 W2
1 2
W3
3 4
W3
1 5
W4
4 5 W4
3 4
6 35
第8章网络信息理论简介-信息论与编码(第3版)-曹雪虹-清华大学出版社

PS2
2 n
8.3.2 高斯多址接入信道
• 信号平均功率受限:
E[X12 ] PS1 ,
E[
X
2 2
]
PS2
• 可达速率区是满足下式的凸闭包:
R1 I ( X1;Y / X 2 ) R2 I ( X 2;Y / X1) R1 R2 I ( X1, X 2;Y )
8.3.2 高斯多址接入信道
信源1
编码器1 X1
Y1
译码器1
信宿1
信源2 U2 编码器2 X2
Y2
通 信 网
译码器2
信宿2
信源m Um 编码器m Xm
Ym
译码器n
信宿n
8.3 网络信道的信道容量域
8.3.1 离散多址接入信道
• 为了信息的可靠传输,各发送者不但要克 服信道噪声,而且还要克服各发送端彼此 之间的串扰。
信源U1 信源U2
C
送端各占一半的传送
D 时间,可达容量区域 是 AB 连线所围的区域。
0
B
R1
C12-C2
C1
C12
8.3.2 高斯多址接入信道
• 若设在总传送时间 T 内,QT用来传送X1,
(1- Q)T 用来传送X2,其中 0 Q 1 。
那么在传送 X1时,X 2 0 ;在传送 X2 时, X1 0 。若保持平均功率不变,则 传送 X1 时功率可以提高到 PS1 / Q ,而 X2 功率可提高到 PS2 。可得
C12
C12
max
P1 ( x1 ) P2 ( x2 )
I ( X1,
X 2;Y )
R1
8.3.2 高斯多址接入信道
• 各信源来的信号在接收端相加,并受加性
信息论与编码 曹雪虹 PPT 第第5章

H L ( X) η= , ε >0 H L ( X) + ε
信息论基础B
25
5.2 无失真信源编码
编码定理从理论上阐明了编码效率接近1的理想 编码器的存在性,它使输出符号的信息率与信 源熵之比接近于1,即
H L ( X) →1 KL log m L
信息论基础B
L取无限长
26
5.2 无失真信源编码
R3=0.985比特/二元码符号 L=4 η = 0.991
4
R4=0.991比特/二元码符号
信息论基础B
40
5.2 无失真信源编码
定长二元码编码,要求编码效率达到96%时 -5 ,允许译码错误概率 δ ≤ 10
σ (X ) =
2
∑ p (log p )
i i i =1
2
2
− [ H ( X )]
42
5.2 无失真信源编码
香农(Shannon)编码 将信源消息符号按其出现的概率大小依次 排列
p1 ≥ p2 ≥ L ≥ pn
确定满足下列不等式的整数码长Ki。
信息论基础B
7
5.1 编码的定义
如图5-1所示,如果信源输出符号序列长度L=1,信源 符号集A(a1,a2,…,an) 信源概率空间为
X a1 = P p(a1 )
a2 L an p ( a 2 ) L p ( an )
若将信源X通过二元信道传输 , 若将信源 通过二元信道传输, 就必须把信源符 通过二元信道传输 变换成由0, 符号组成的码符号序列 符号组成的码符号序列, 号 ai 变换成由 , 1符号组成的码符号序列 , 这个 过程就是信源编码
例 设离散无记忆信源概率空间为
信息论基础B
25
5.2 无失真信源编码
编码定理从理论上阐明了编码效率接近1的理想 编码器的存在性,它使输出符号的信息率与信 源熵之比接近于1,即
H L ( X) →1 KL log m L
信息论基础B
L取无限长
26
5.2 无失真信源编码
R3=0.985比特/二元码符号 L=4 η = 0.991
4
R4=0.991比特/二元码符号
信息论基础B
40
5.2 无失真信源编码
定长二元码编码,要求编码效率达到96%时 -5 ,允许译码错误概率 δ ≤ 10
σ (X ) =
2
∑ p (log p )
i i i =1
2
2
− [ H ( X )]
42
5.2 无失真信源编码
香农(Shannon)编码 将信源消息符号按其出现的概率大小依次 排列
p1 ≥ p2 ≥ L ≥ pn
确定满足下列不等式的整数码长Ki。
信息论基础B
7
5.1 编码的定义
如图5-1所示,如果信源输出符号序列长度L=1,信源 符号集A(a1,a2,…,an) 信源概率空间为
X a1 = P p(a1 )
a2 L an p ( a 2 ) L p ( an )
若将信源X通过二元信道传输 , 若将信源 通过二元信道传输, 就必须把信源符 通过二元信道传输 变换成由0, 符号组成的码符号序列 符号组成的码符号序列, 号 ai 变换成由 , 1符号组成的码符号序列 , 这个 过程就是信源编码
例 设离散无记忆信源概率空间为
信息论与编码(曹雪虹第三版)第一、二章

信道的分类
根据传输介质的不同,信道可分为有线信道和无线信道两大类。有线信道包括 双绞线、同轴电缆、光纤等;无线信道包括微波、卫星、移动通信等。
信道容量的定义与计算
信道容量的定义
信道容量是指在给定条件下,信道能 够传输的最大信息量,通常用比特率 (bit rate)来衡量。
信道容量的计算
信道容量的计算涉及到信道的带宽、 信噪比、调制方式等多个因素。在加 性高斯白噪声(AWGN)信道下,香农 公式给出了信道容量的理论上限。
信道编码分类
根据编码方式的不同,信道编码可分为线性分组码和卷积码 两大类。
线性分组码
线性分组码定义
线性分组码是一种将信息 序列划分为等长的组,然 后对每个组独立进行编码 的信道编码方式。
线性分组码特点
编码和解码过程相对简单 ,适用于各种信道条件, 且易于实现硬件化。
常见的线性分组码
汉明码、BCH码、RS码等 。
将信源消息通过某种数学变换转换到另一个域中,然后对变换 系数进行编码。
将连续的信源消息映射为离散的数字值,然后对数字值进行编 码。这种方法会导致量化噪声,是一种有损的编码方式。
信道编码的定义与分类
信道编码定义
信道编码是为了提高信息传输的可靠性、增加通信系统的抗 干扰能力而在发送端对原始信息进行的一种变换。
信息熵总是非负的,因 为自信息量总是非负的 。
当随机变量为确定值时 ,其信息熵为0。
对于独立随机变量,其 联合信息熵等于各自信 息熵之和。
当随机变量服从均匀分 布时,其信息熵达到最 大值。
03
信道与信道容量
信道的定义与分类
信道的定义
信道是信息传输的媒介,它提供了信号传输的通路,是通信系统中的重要组成 部分。
根据传输介质的不同,信道可分为有线信道和无线信道两大类。有线信道包括 双绞线、同轴电缆、光纤等;无线信道包括微波、卫星、移动通信等。
信道容量的定义与计算
信道容量的定义
信道容量是指在给定条件下,信道能 够传输的最大信息量,通常用比特率 (bit rate)来衡量。
信道容量的计算
信道容量的计算涉及到信道的带宽、 信噪比、调制方式等多个因素。在加 性高斯白噪声(AWGN)信道下,香农 公式给出了信道容量的理论上限。
信道编码分类
根据编码方式的不同,信道编码可分为线性分组码和卷积码 两大类。
线性分组码
线性分组码定义
线性分组码是一种将信息 序列划分为等长的组,然 后对每个组独立进行编码 的信道编码方式。
线性分组码特点
编码和解码过程相对简单 ,适用于各种信道条件, 且易于实现硬件化。
常见的线性分组码
汉明码、BCH码、RS码等 。
将信源消息通过某种数学变换转换到另一个域中,然后对变换 系数进行编码。
将连续的信源消息映射为离散的数字值,然后对数字值进行编 码。这种方法会导致量化噪声,是一种有损的编码方式。
信道编码的定义与分类
信道编码定义
信道编码是为了提高信息传输的可靠性、增加通信系统的抗 干扰能力而在发送端对原始信息进行的一种变换。
信息熵总是非负的,因 为自信息量总是非负的 。
当随机变量为确定值时 ,其信息熵为0。
对于独立随机变量,其 联合信息熵等于各自信 息熵之和。
当随机变量服从均匀分 布时,其信息熵达到最 大值。
03
信道与信道容量
信道的定义与分类
信道的定义
信道是信息传输的媒介,它提供了信号传输的通路,是通信系统中的重要组成 部分。
信息论与编码-曹雪虹-课件第1章

29
信息论
一门应用概率论、随机过程、数理统计 和近代代数的方法,来研究信息传输、 提取和处理系统中一般规律的学科。
信息论是在信息可以量度的基础上,研究有 效地和可靠地传递信息的科学,它涉及信息 量度、信息特性、信息传输速率、信道容 量、干扰对信息传输的影响等方面的知识
30
信息
是事物运动状态或存在方式的不确定性的描
香农定义的信息也有其局限性,存在一些缺陷 定义的出发点是假定事物状态可以用一个以 经典集合论为基础的概率模型来描述。 没有考虑收信者的主观特性和主观意义,也 撇开了信息的具体含意、具体用途、重要程 度和引起后果等因素。
36
37
狭义信息论:
主要研究信息的测度、信道容量以及信源和信 道编码理论等问题。
接收者在收到信息之前,对它的内容是不知道的, 所以,信息是新知识、新内容;
信息是能使认识主体对某一事物的未知性或不确 定性减少的有用知识;
信息可以产生,也可以消失,同时信息可以被携 带、贮存及处理;
信息是可以量度的,信息量有多少的差别
32
例:气象预报 甲
乙
• “甲地晴”比“乙地晴”的不确定性来的 小
第一层:通信符号如何精确传输?(技术问题)
第二层:传输的符号如何精确携带所需要的含义? (语义问题)
第三层:所接收的含义如何以所需要的方式有效 地影响行为?(效用问题)
Weaver认为仙农的工作属于第一层,但他又证明 仙农的工作是交叉的,对第二、三层也有意义。
信息是认识主体(人、生物、机器) 所感受的和所表达的事物运动的状态和运 动状态变化的方式。
把广义信息分成三个基本层次,即语法 信息,语义信息,语用信息,分别反映事 物运动状态及其变化方式的外在形式、内 在含义和效用价值。
信息论
一门应用概率论、随机过程、数理统计 和近代代数的方法,来研究信息传输、 提取和处理系统中一般规律的学科。
信息论是在信息可以量度的基础上,研究有 效地和可靠地传递信息的科学,它涉及信息 量度、信息特性、信息传输速率、信道容 量、干扰对信息传输的影响等方面的知识
30
信息
是事物运动状态或存在方式的不确定性的描
香农定义的信息也有其局限性,存在一些缺陷 定义的出发点是假定事物状态可以用一个以 经典集合论为基础的概率模型来描述。 没有考虑收信者的主观特性和主观意义,也 撇开了信息的具体含意、具体用途、重要程 度和引起后果等因素。
36
37
狭义信息论:
主要研究信息的测度、信道容量以及信源和信 道编码理论等问题。
接收者在收到信息之前,对它的内容是不知道的, 所以,信息是新知识、新内容;
信息是能使认识主体对某一事物的未知性或不确 定性减少的有用知识;
信息可以产生,也可以消失,同时信息可以被携 带、贮存及处理;
信息是可以量度的,信息量有多少的差别
32
例:气象预报 甲
乙
• “甲地晴”比“乙地晴”的不确定性来的 小
第一层:通信符号如何精确传输?(技术问题)
第二层:传输的符号如何精确携带所需要的含义? (语义问题)
第三层:所接收的含义如何以所需要的方式有效 地影响行为?(效用问题)
Weaver认为仙农的工作属于第一层,但他又证明 仙农的工作是交叉的,对第二、三层也有意义。
信息是认识主体(人、生物、机器) 所感受的和所表达的事物运动的状态和运 动状态变化的方式。
把广义信息分成三个基本层次,即语法 信息,语义信息,语用信息,分别反映事 物运动状态及其变化方式的外在形式、内 在含义和效用价值。
信息论与编码ppt

人们对客观世界运动规律 和存在状态的认识结果
信息 传递 信息 获取
信息处理—再生 信息处理 再生
信息 传递
外部世界 问题/ 问题/环境
信息运动过程
信息 施用
二、信息论的形成和发展 信息论的形成和发展
信息论的奠基人是谁? 信息论的奠基人是谁?信息论的开创文 章是什么? 章是什么? 编码理论的开创文章是什么? 编码理论的开创文章是什么? 香龙的三大定理是什么? 香龙的三大定理是什么?
3
注意事项
1、实行请假制度 、 2、保持课堂纪律 、 3、欢迎提出反馈意见 、
4
学习方法
本课程以概率论为基础,数学推导较多, 本课程以概率论为基础,数学推导较多,学习 时主要把注意力集中到概念的理解上, 概念的理解上 时主要把注意力集中到概念的理解上,不过分 追求数学细节的推导。 追求数学细节的推导。学习时一定要从始至终 注意基本概念的理解,不断加深概念的把握。 注意基本概念的理解,不断加深概念的把握。 学习时注意理解各个概念的“用处” 学习时注意理解各个概念的“用处”,结合其 他课程理解它的意义, 他课程理解它的意义,而不要把它当作数学课 来学习,提倡独立思考, 来学习,提倡独立思考,注重思考在学习中的 重要性。 重要性
在通信系统中形式上传输的是消息,但实质上传输的是信息 在通信系统中形式上传输的是消息 但实质上传输的是信息
什么叫数据? 什么叫数据?
载有信息的可观测、可传输、 载有信息的可观测、可传输、可存储及可 处理的信号均称为数据。 处理的信号均称为数据。
17
4.信息的分类 信息的分类
语义信息:事物运动状态及方式的具体含义, 语义信息:事物运动状态及方式的具体含义, 研究信息的主体含义。 研究信息的主体含义。 语法信息:事物的状态和状态改变方式本身。 语法信息:事物的状态和状态改变方式本身。 研究事物运动出现的各种可能状态和这些状态 之间的联系。是抽象的。 之间的联系。是抽象的。(各种信息要素出现 的可能性及各要素之间的相互关系)。 的可能性及各要素之间的相互关系)。 语用信息:事物运动状态、 语用信息:事物运动状态、方式及其含义对观 察者的效用,研究信息客观价值。 察者的效用,研究信息客观价值。
信息论与编码_曹雪虹_PPT第二章

信源描述与分类 离散信源的信息熵和互信息 离散序列信源的熵 连续信源的熵与互信息 冗余度
引言
有效性和可靠性是通信系统中研究的中 心问题,信息论是在信息可度量基础上, 研究有效地和可靠地传递信息的科学。因 此,概率论、随机过程是信息论研究的基 础和工具。
信源的数学模型 正如绪论中所述,在通信系统中收信者在未收到 消息以前,对信源发出什么消息是不确定的, 所以可用随机变量或随机矢量来描述信源输出 的消息。或者说,用概率空间来描述信源。 离散信源的数学模型就是离散型的概率空间:
信息量与不确定性: 信息是事物运动状态或存在方式的不确定性的 描述。那么 , 根据香农信息的定义,信息该如何度 量呢? 当人们收到一封E_Mail,或看了电视,到底得 到多少信息量呢?显然,信息量与不确定性消除的 程度有关。消除多少不确定性,就获得多少信息量 。那么,不确定性的大小能度量吗? 用数学的语言来讲,不确定性就是随机性,具 有不确定性的事件就是随机事件。因此,可以应用 研究随机事件的数学工具 —— 概率论来度量不确 定性的大小。简单地说,不确定性的大小可以直观 地看成是猜测某随机事件是否发生的难易程度。
连续参数马尔可夫链
马尔可夫过程
有限维概率分布(簇) 转移概率
绝对概率
极限分布
平稳分布
状态空间的性质
补1 马尔可夫过程的概念
补1.1 有关定义
随机过程马尔可夫性:(物理描述)
当随机过程在时刻 ti 所处的状态为已知的条件下,过 程在时刻 t(>ti)所处的状态,与过程在ti时刻以前的状态无 关,而仅与在ti时刻的状态有关。这种已知“现在”状态的 条件下,“将来”状态与“过去”状态无关的性质,称为 马尔可夫性或无后效性。 具有马尔可夫性或无后效性的随机过程,即是马尔可 夫过程。
引言
有效性和可靠性是通信系统中研究的中 心问题,信息论是在信息可度量基础上, 研究有效地和可靠地传递信息的科学。因 此,概率论、随机过程是信息论研究的基 础和工具。
信源的数学模型 正如绪论中所述,在通信系统中收信者在未收到 消息以前,对信源发出什么消息是不确定的, 所以可用随机变量或随机矢量来描述信源输出 的消息。或者说,用概率空间来描述信源。 离散信源的数学模型就是离散型的概率空间:
信息量与不确定性: 信息是事物运动状态或存在方式的不确定性的 描述。那么 , 根据香农信息的定义,信息该如何度 量呢? 当人们收到一封E_Mail,或看了电视,到底得 到多少信息量呢?显然,信息量与不确定性消除的 程度有关。消除多少不确定性,就获得多少信息量 。那么,不确定性的大小能度量吗? 用数学的语言来讲,不确定性就是随机性,具 有不确定性的事件就是随机事件。因此,可以应用 研究随机事件的数学工具 —— 概率论来度量不确 定性的大小。简单地说,不确定性的大小可以直观 地看成是猜测某随机事件是否发生的难易程度。
连续参数马尔可夫链
马尔可夫过程
有限维概率分布(簇) 转移概率
绝对概率
极限分布
平稳分布
状态空间的性质
补1 马尔可夫过程的概念
补1.1 有关定义
随机过程马尔可夫性:(物理描述)
当随机过程在时刻 ti 所处的状态为已知的条件下,过 程在时刻 t(>ti)所处的状态,与过程在ti时刻以前的状态无 关,而仅与在ti时刻的状态有关。这种已知“现在”状态的 条件下,“将来”状态与“过去”状态无关的性质,称为 马尔可夫性或无后效性。 具有马尔可夫性或无后效性的随机过程,即是马尔可 夫过程。
第2章-4信息论语编码 曹雪虹 的经典课件

9
a2 1 4
• 设发出的符号只与前一个符号有关,这两个符 号的概率关联性用条件概率p(aj|ai)表示,如表
• 求离散信源的序列熵和平均每个符号的熵?
a0
a1
a2
p(aj|ai)
a0 9/11 2/11 0
a1 1/8 3/4 1/8
a2
0 2/9 7/9
21
• 由 p(ai,aj) = p(ai) p(aj| ai)
Hm1 p(si )H ( X | si )
i
5 0.469 9 1 45 0.722 0.743bit / 符号
59
59 59
28
2.5 冗余度
29
冗余度
• 冗余度(多余度、剩余度)
– 表示信源在实际发出消息时所包含的多余信 息。
• 冗余度:
– 信源符号间的相关性。 • 相关程度越大,信源的实际熵越小
il
l
14
离散无记忆信源的序列熵
• 若又满足平稳特性,即与序号l无关时:
L
p( X ) p(xil ) pL l 1
• 信源的序列熵
H (X ) LH (X )
• 平均每个符号(消息)熵为
HL(X)
1 L
H(X
)
H(X
)
15
例:有一个无记忆信源随机变量X∈(0,1),等概率分
布,若以单个符号出现为一事件,则此时的信源熵:
1/0.6
s2
1/0.5
s3
1/0.2 0/0.9
s1
1/0.1
0.1 0 0.9 p(s j | si ) 0.5 0 0.5
0 0.2 0ห้องสมุดไป่ตู้8
27
a2 1 4
• 设发出的符号只与前一个符号有关,这两个符 号的概率关联性用条件概率p(aj|ai)表示,如表
• 求离散信源的序列熵和平均每个符号的熵?
a0
a1
a2
p(aj|ai)
a0 9/11 2/11 0
a1 1/8 3/4 1/8
a2
0 2/9 7/9
21
• 由 p(ai,aj) = p(ai) p(aj| ai)
Hm1 p(si )H ( X | si )
i
5 0.469 9 1 45 0.722 0.743bit / 符号
59
59 59
28
2.5 冗余度
29
冗余度
• 冗余度(多余度、剩余度)
– 表示信源在实际发出消息时所包含的多余信 息。
• 冗余度:
– 信源符号间的相关性。 • 相关程度越大,信源的实际熵越小
il
l
14
离散无记忆信源的序列熵
• 若又满足平稳特性,即与序号l无关时:
L
p( X ) p(xil ) pL l 1
• 信源的序列熵
H (X ) LH (X )
• 平均每个符号(消息)熵为
HL(X)
1 L
H(X
)
H(X
)
15
例:有一个无记忆信源随机变量X∈(0,1),等概率分
布,若以单个符号出现为一事件,则此时的信源熵:
1/0.6
s2
1/0.5
s3
1/0.2 0/0.9
s1
1/0.1
0.1 0 0.9 p(s j | si ) 0.5 0 0.5
0 0.2 0ห้องสมุดไป่ตู้8
27
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
马尔可夫信源 由于高阶马尔可夫信源需要引入矢量进行 分析,现方法将矢量转化为状态变量。定 义状态:
si (xi1, xi2 , xim ) xij A a1, an
信源在某一时刻出现符号概率xj与信源此 时所处状态si有关,用条件概率表示 p(xj/si),状态转移概率表示为p(sj/si)
I (xi
/ y j ) log 2
p(xi
/ y j ) log 2
p(xi , y j ) p( y j )
log 2
1 8
3bit
信息论基础B
31
2.2离散信源熵与互信息
Eg2. 一个布袋内放100个球,其中80个球为红色, 20球为白色。若随机摸取一个球,猜测其颜色,求平 均摸取一次所获得的(自)信息量。 解:随机事件的概率空间为
17
2.1信源描述与分类
马尔可夫信源 k步转移概率pij(k)与l步和k-l步转移概率之 间满足切普曼-柯尔莫郭洛夫方程。 定义:如果从状态I转移到状态j的概率与 m无关,则称这类MovKov链为齐次 对于齐次马尔可夫链,一步转移概率完全 决定了k步转移概率。
信息论基础B
18
2.1信源描述与分类
信源的基本特性是具有随机不确定性
信息论基础B
2
2.1信源特性与分类
分类
时间
离散
连续
幅度
离散
连续
记忆
有
无
三大类:
单符号离散信源
符号序列信源(有记忆和无记忆)
连续信源
信息论基础B
3
2.1信源特性与分类
离散无记忆序列信源 布袋摸球实验,若每次取出两个球,由两 个球的颜色组成的消息就是符号序列。若 先取出一个球,记下颜色放回布袋,再取 另一个球。
7
2.1信源描述与分类
连续信源
U p(u)
(a, b) p(u)
u U (,), p(u)为概率密度函数
信息论基础B
8
2.1信源描述与分类
离散序列信源
UL p(u)
U
u1 ,
p(u1),
U u2, p(u2 ),
p(X1, X 2, , Xl , X L ) p(X1) p(X 2 ) p(X L )
信息论基础B
4
2.1信源特性与分类
离散有记忆序列信源 布袋摸球实验,每次取出两个球,由两个 球的颜色组成的消息就是符号序列。若先 取出一个球,记下颜色不放回布袋,再取 另一个球。
p( X1, X 2 , , X L ) p( X1) p( X 2 / X1) p( X L / X1 X L1)
马尔可夫信源
定义:若齐次马尔可夫链对一切I,j存在不 依赖于I的极限,则称其具有遍历性,pj称 为平稳分布
lim
k
p(k) ij
pj
pj 0
p j pi pij
i0
pj 1
j
信息论基础B
19
2.1信源描述与分类
马尔可夫信源 定理:设有一齐次马尔可夫链,其状态转 移矩阵为P,其稳态分布为wj
信息论基础B
11
2.1信源描述与分类
离散有记忆序列信源 布袋摸球实验,每次取出两个球,由两个 球的颜色组成的消息就是符号序列。若先 取出一个球,记下颜色不放回布袋,再取 另一个球。
p( X1, X 2 , , X L ) p( X1) p( X 2 / X1) p( X L / X1 X L1)
wj 1
j
WP W
信息论基础B
20
2.1信源描述与分类
不可约性,对于任意一对I和j, 都存在至 少一个k,使pij(k)>0. 非周期性,所有pij(n)>0的n中没有比1大的 公因子。
定理:设P是某一马尔可夫链的状态转移 矩阵,则该稳态分布存在的充要条件是存 在一个正整数N,使矩阵PN中的所有元素 均大于零。
信息论基础B
28
2.2离散信源熵与互信息
联合自信息、条件自信息与自信息间的关系
p(x, y) p(x) p( y / x) p( y) p(x / y)
I (x, y) log p(x, y) log p(x) p( y / x)
log p(x) log p( y / x) I (x) I ( y / x) 当x和y相互独立
信息论基础B
26
2.2离散信源熵与互信息
定义:对于给定的离散概率空间表示的信源,
x=ai事件所对应的(自)信息为
1
I ( xi ai ) log p( xi ) log
以2为底,单位为比特(bit)
p( xi )
以e为底,单位为奈特(nat) 1nat=1.433bit
以10为底,单位为笛特(det) 1det=3.322bit
信息论基础B
27
2.2离散信源熵与互信息
定义:联合概率空间中任一联合事件的联合(自)信 息量为:
1 I( xi , y j ) log p( xi , y j ) log p( xi , y j )
定义:联合概率空间中,事件x在事件y给定条件下的
条件(自)信息量为:
1 I( xi / y j ) log p( xi / y j ) log p( xi / y j )
信息论基础B
21
2.1信源描述与分类
Eg. 一个相对编码器,求平稳分布
X
Y
+
T
信息论基础B
22
2.1信源描述与分类
Eg. 二阶马氏链,X{0,1},求平稳分布
起始状态
00 01 10 11
S1(00) 1/2 0 1/4 0
S2(01) 1/2 0 3/4 0
S3(10) 0 1/3 0 1/5
I (xy) I (x) I ( y) 推广
I (x1x2 xN ) I (x1) I (x2 / x1)
I (xN / x1x2 xN 1)
信息论基础B
29
2.2离散信源熵与互信息
Eg1 设在一正方形棋盘上共有64个方格,如果甲将一 粒棋子随意地放在棋盘中的某方格内,让乙猜测棋子 所在的位置: (1)将方格按顺序编号,令乙猜测棋子所在方格的 顺序号 (2)将方格按行和列编号,甲将棋子所在的方格的 行(或列)编号告诉乙,再令乙猜测棋子所在列(或 行)所在的位置。
信息论基础B
12
2.1信源描述与分类
马尔可夫信源 当信源的记忆长度为m+1时,该时该发出 的符号与前m个符号有关联性,而与更前 面的符号无关。
p( X1, X 2, , X L ) p( X1) p(X 2 / X1) p( X L / X1 X Lm )
信息论基础B
13
2.1信源描述与分类
信息论基础B
5
2.1信源特性与分类
马尔可夫信源 当信源的记忆长度为m+1时,该时该发出 的符号与前m个符号有关联性,而与更前 面的符号无关。
p( X1, X 2, , X L ) p( X1) p(X 2 / X1) p( X L / X1 X Lm )
信息论基础B
6
2.1信源描述与分类
信息论基础B
30
2.2离散信源熵与互信息
解:由于甲将一粒棋子随意地放在棋盘中的某方格内,因此 棋子在棋盘中所处位置为二维等概率分布
(1)联合(自)信息量为
p(xi , y j )
1 64
(2)条件(自)信息量为
I (xi ,
yj)
log 2
p(xi ,
yj)
log 2
1 64
6bit
熵
事件集的平均不确定性
信息论基础B
25
2.2离散信源熵与互信息
直观推导信息测度
信息I应该是消息概率p的递降函数
pi pi
, I ( pi ) ,且当pi , I ( pi ) ,且当pi
0时, 1时,
I I
( (
pi pi
) )
0
由两个不同的消息(相互统计独立)所提供的信息等 于它们分别提供信息之和(可加性)
X P
x1 0.8
x2 0.2
信息论基础B
32
2.2离散信源熵与互信息
I (x1 ) log 2 p(x1 ) log 2 0.8bit IN(次x2后) 所获log得2 的p(x信2 )息量 l为og 2 0.2bit I Np(x1 )I (x1 ) Np(x2 )I (x2 ) 平 (均0每.8l次og所2 0获.8得 0的.2信log息2量0.为2)N
描述:通过概率空间描述
单符号离散信源
U p(u)
U
u1, p1 ,
U u2, p2 ,
, ,
U un pn
例如:对二进制数字与数据信源
U p
0, p0 ,
1 p1
0,
1 2
,
1 1 2
信息论基础B
,
U 001,
1 8
,
U 111 1 8
信息论基础B
10
2.1信源描述与分类
离散无记忆序列信源 布袋摸球实验,若每次取出两个球,由两 个球的颜色组成的消息就是符号序列。若 先取出一个球,记下颜色放回布袋,再取 另一个球。