第6讲——连续信源的数学模型及其信息测度

合集下载

《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是什么?2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。

连续信源高斯分布微分熵

连续信源高斯分布微分熵

连续信源高斯分布微分熵连续信源高斯分布微分熵是信息论中一个重要的概念,它可以用来描述信源的不确定性。

在本文中,我们将详细介绍连续信源、高斯分布和微分熵,并探讨它们之间的关系。

我们来了解一下连续信源的概念。

连续信源是指信号取值可以是任意实数的信源。

与之相对的是离散信源,它的信号取值只能是有限个或可数个值。

连续信源常见的例子包括音频信号、视频信号等。

接下来,我们介绍一下高斯分布。

高斯分布,也称为正态分布,是一种常见的连续概率分布。

它的概率密度函数呈钟形曲线,以均值μ为中心,标准差σ决定了曲线的宽度。

高斯分布在自然界和社会科学中广泛应用,例如人的身高、体重等都符合高斯分布。

微分熵是信息论中的一个概念,用来度量信源的不确定性。

对于离散信源来说,微分熵可以通过对信源的概率分布进行求和得到。

而对于连续信源来说,由于信号的取值是连续的,我们需要使用积分来计算微分熵。

高斯分布的微分熵可以通过对高斯分布的概率密度函数进行积分来计算。

具体来说,我们可以使用概率密度函数的负对数作为微分熵的表达式。

高斯分布的微分熵与标准差有关,标准差越大,微分熵越大,表示信源的不确定性越高。

连续信源高斯分布微分熵在信息论和统计学中有着广泛的应用。

例如,在无线通信中,我们可以利用高斯分布微分熵来评估信道的容量,从而确定可以传输的最大数据量。

在数据压缩领域,我们可以利用高斯分布微分熵来设计有效的压缩算法,以减小数据的存储和传输成本。

总结一下,连续信源高斯分布微分熵是信息论中的一个重要概念,用于度量连续信源的不确定性。

它可以通过对高斯分布的概率密度函数进行积分来计算。

在实际应用中,连续信源高斯分布微分熵可以用来评估信道容量、设计压缩算法等。

通过对这些概念的理解和应用,我们可以更好地理解和利用信息论的知识,为实际问题提供解决方案。

《信息论与编码》课件1第2章

《信息论与编码》课件1第2章
I(ai)是一个随机变量并不难理解。因为ai发生可以使收 信者获得大小为I(ai)的自信息,然而在信源未发出消息之 前,收信者不仅对ai是否发生具有不确定性,而且对于能 够获得多少自信息也是不确定的。因此,伴随着X=ai的随 机发生而发生的自信息I(ai)是一个随机变量,并且与随机 变量X具有相同的概率分布, 即自信息I(ai)是一个发生概率 为P(X=ai)
如果消息ai已发生,则该消息发生所含有的自信息定 义为
1
1
I (ai ) log P(ai ) log pi
(2.4)
第2章 离散无记忆信源与信息熵
可以很容易地证明, 自信息的定义满足上面提出的四个
(1) 此自信息的定义是根据消息发生的概率建立的一个 工程定义,而不是根据这个消息对人的实际意义而建立的 定义。这一纯粹技术性的定义仅仅抓住了“信息”一词在
(2) 自信息I(ai) 在消息ai发生之前,自信息I(ai)表示ai发生的不确定性; 在消息ai发生以后,自信息I(ai)表示ai所含有的(或提
第2章 离散无记忆信源与信息熵
(3) 在式(2.4)中关于对数的底未作明确规定。这是 因为对数的底仅仅影响到度量的单位,实际中可根据
如果取对数的底为2,则所得信息量的单位为比特 (bit, binary unit),此时logx用lbx
第2章 离散无记忆信源与信息熵
第2章 离散无记忆信源与信息熵
2.1 离散无记忆信源 2.2 自信息和熵 2.3 熵函数的性质 2.4 联合事件的熵及其关系 2.5 连续信源的信息测度 习题2
第2章 离散无记忆信源与信息熵
信息理论的研究对象是以各类信息的获取、表示、 传输和处理为目的的信息系统。图2-1给出了一个典型 的通信系统物理模型。在这样的通信系统中,一个贯 穿始终的、最基本的问题便是信息,即信源输出的是 信息,在系统中传输的是信息,接收者获得的也是信 息。可见,在信息理论的学习和研究中,首先需要对

信源和信息熵

信源和信息熵
且:I(X1;X2)=I(X2;X1)
注意:任何无源处理总是丢失信息的,至多保持原来 的信息,这是信息不可增性的一种表现。
二、离散平稳信源的极限熵 设信源输出一系列符号序列X1,X2, ‥XN 概率分布: 联合熵:
定义序列的平均符号熵=总和/序列长度,即:
• 平均符号熵就是信源符号序列中平均每个信 源符号所携带的信息量。
信源和信息熵
2.1 信源的数学模型及分类
通信系统模型及信息传输模型:
一、信源输出是单个符号的消息
例:扔一颗质地均匀的正方体骰子,研究其下落后, 朝上一面的点数。每次试验结果必然是1点、2点、3点、 4点、5点、6点中的某一个面朝上。每次试验只随机出 现其中一种消息,不可能出现这个集合以外的消息, 考察此事件信源的数学模型。
H(1,0)=H(0,1)=H(1,0,0, ‥)=‥=0 说明:从熵的不确定概念来说,确知信源的不确定度 应该为0。
5、可加性: 二个随机变量X和Y不独立时: H(XY)=H(X)+H(Y/X)=H(Y)+H(X/Y) 二个随机变量X和Y独立时: H(XY)=H(X)+H(Y) 6、极值性:
H(p1,p2, ‥,pq) ≤-∑pilogqi,当pi=1/q时,
解:数学模型为:
且满足:
§离散信源:信源输出是单一符号的消息,其符号集 的取值是有限的或可数的。
一维离散信源数学模型就是离散型的概率空间:
且满足:
§连续信源的无

数学模型是连续型的概率空间: 值。
实数集(-∞,+∞)
X的概率 密度函数
r进制信息熵与二进制信息熵的关系:
熵的物理含义: 信息熵H(x)是表示信源输出后,每个消息(或符号)所提 供的平均信息量;信息熵H(x)是表示信源输出前,信源 的平均不确定性;用信息熵H(x)来表征变量X的随机 性。 注意:信息熵是信源的平均不确定的描述。一般情况 下,它并不等于平均获得的信息量,获得的信息量是两 熵之差,并不是信息熵本身。

信息论与编码课件910PPT

信息论与编码课件910PPT

当以10为底时,单位为笛特Det(工程计算常用)

对数及常用公式
y=log10x y=logbx Example: log327 x=10y x=by log(xy)=log x+log y log(x/y)=log x-log y log(xp)=plog x log(1)=0 log(1/x)=-log x
(对于齐次马氏链) (对于齐次遍历马氏链)
常用的概率论的基本概念和性质1
无条件概率、条件概率、联合概率满足的一些性质和关系:
(1) 0 p( xi )、p( y j )、p( y j / xi )、p( xi / y j )、p( xi y j ) 1
(2)
p( x ) 1, p( y ) 1, p( x / y ) 1, p( y
离散(数字)消息,一组未知量,可用随机序列来描述: X=(X1…Xi…Xn) 连续(模拟)消息,未知量,它可用随机过程来描述: X(t)



信息:它是更高层次哲学上的抽象,是信号与消 息的更高表达层次。
信息、消息和信号



信息、消息和信号是既有区别又有联系的三 个不同的概念。 消息中包含信息,是信息的载体。 信号携带着消息,它是消息的运载工具。
i 1 j 1
n
m
条件熵
定义:条件自信息量的概率加权平均值(数学期望) 定义为条件熵。定义式为:
H (V | U ) E[ I ( Pji )] E[ log Pji ] rij log Pji
i 1 j 1
n m
n
m
H (U | V ) E[ I (Qi j )] E[ logQi j ] rij logQi j

信息论第二章

信息论第二章

集合X中,包含该信源包含的所有可能输出 的消息,集合P中包含对应消息的概率密度,各 个消息的输出概率总和应该为1。 例:天气预报
第一节 信源的数学模型及分类 2、连续信源 数学,模型如下:
离散信源的进一步分类
发出单个符号的无记忆信源 离散无记忆信源指信源每次只发出 发出符号序列的无记忆信源 离散信源 一个符号 代表一 发出符号序列的有记忆信源 个消息. 离散有记忆信源 发出符号序列的马儿可夫信源
H( p1, p2 ,..., pq ) H(1/ q,1/ q,...,1/ q) log q
上式表明,对于具有q个符号的离散信源,只有在q 个信源符号等可能出现的情况下,信源熵才能达到最 大值,这也表明等概分布的信源的平均不确定性最大, 这是一个很重要得结论,称为最大离散熵定理 例:对于一个二元信源 H(X)=H(1/2,1/2)=log2=1bit
H ( X 2 ) 2H ( X )
第五节 离散平稳信源 1、离散平稳信源的数学定义 一般来说,信源的前后消息之间有前后依赖关系, 可以用随机矢量描述:
第五节 离散平稳信源 2、二维平稳信源及其信息熵 最简单的平稳信源——二维平稳信源,信源发出序列 中只有前后两个符号间有依赖关系,我们可以对其二维 扩展信源进行分析。 信源的概率空间:
n
n是指发出在时间和幅度上都是离散分布的
离散信源 连续信源
符号都是离散消息。 是指发出在时间和幅度上都是连续分布的 连续消息(模拟消息)的信源,如语言、 图像、图形等都是连续消息。
n
第一节 信源的数学模型及分类 1、离散信源
信源种类 离散信源 (数字信源) 连续信号 举例 文字、数据、 离散化图象 数学描述 离散随机变量序列

信息论重点-(新)

信息论重点-(新)

1.消息定义信息的通俗概念:消息就是信息,用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来,就成为消息,消息中包含信息,消息是信息的载体。

信号是表示消息的物理量,包括电信号、光信号等。

信号中携带着消息,信号是消息的载体。

信息的狭义概念(香农信息):信息是对事物运动状态或存在方式的不确定性的描述。

信息的广义概念 信息是认识主体(人、生物、机器)所感受的和表达的事物运动的状态和运动状态变化的方式。

➢ 语法信息(语法信息是指信息存在和运动的状态与方式.) ➢ 语义信息(语义信息是指信宿接收和理解的信息的内容。

) ➢ 语用信息(语用信息是指信息内容对信宿的有用性。

)2.狭义信息论、广义信息论。

狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学.它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。

广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。

包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等.3。

自信息 互信息 定义 性质及物理意义 自信息量: ()log ()i x i I x P x =-是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特;对数底为e 时,其单位为奈特;对数底为10时,其单位为哈特自信息量性质:I (x i )是随机量;I(x i )是非负值;I(x i )是P (x i )的单调递减函数.自信息物理意义: 1。

事件发生前描述该事件发生的不确定性的大小 2.事件发生后表示该事件所含有(提供)的信息量 互信息量:互信息量的性质:1) 互信息的对称性2) 互信息可为零3) 互信息可为正值或负值4) 任何两个事件之间的互信息不可能大于其中任一事件的自信息互信息物理意义: 1。

第1章 信源模型及信息的度量

第1章 信源模型及信息的度量

6
二元联合信源
有两个信源X,Y
, an a2 , X a1 , P ( x) P (a ), P (a ), , P (a ) n 1 2
, bm b2 , Y b1 , P ( y ) P (b ), P (b ), , P(b ) 1 m 2
, aq a2 , X a1, P ( x) P (a ), P (a ), , P (a ) q 1 2
例:
a2 a1 P ( ) 0.01 0.99
b1 b2 P ( ) 0 .4 0 .6


可பைடு நூலகம்性公理:
两个消息独立,则 I (ai , b j ) I (ai ) I (b j ) 对同一条消息,观察两次所得到的信息量等 于两次分别收到的信息量之和
I (ai ; b j ck ) I (ai ; b j ) I (ai ; ck / b j )
例题
说明信息论在我们日常生活中的指导意义
P(X): p
1. p=0.5时; H(X)=-0.5log0.5+(-0.5log0.5)=1 bit/符号 2. p=0.99,1-p=0.01时;
H(X)=-0.99log0.99+(-0.01 log0.01)=0 .08bit/符号
3. p=0,1-p=1(或p=1,1-p=0)时; H(X)=-0log0+(-1 log1)=0 bit/符号
XY——样本值共有 m n 个
p ( x i y j ) p ( y j ) p ( xi / y j ) p ( x i ) p ( y j / x i )
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
−M
= −∫
M
p ( x) = 1 / 2M 于是有 − ∫− M p( x) ln p( x)dx ≤ ln 2M
M
最大连续熵定理
• 峰值功率受限的最大熵定理 若连续随机变量X的峰值不超过M,即X限于(-M,M)内 取值,则X的相对熵
H c ( X ) ≤ ln 2 M
当且仅当X为均匀分布时等号成立。 • 平均功率受限的最大熵定理 若连续随机变量X的方差为一定,则X服从正态分布时 的相对熵最大,即 1 H c ( X ) ≤ ln 2π eσ = ln 2π eσ 2 2
最大连续熵定理
• 峰值功率受限的最大熵定理 若连续随机变量X的峰值不超过M,即X限于(-M,M)内 取值,则X的相对熵 H c ( X ) ≤ ln 2 M 当且仅当X为均匀分布时等号成立。 • 平均功率受限的最大熵定理 若连续随机变量X的方差为一定,则X服从正态分布时 的相对熵最大,即 1 H c ( X ) ≤ ln 2π eσ = ln 2π eσ 2 2
时,等号成立。
将其代入两个约束条件,即可求得 ( x − m )2 − 1 2 p( x ) = e 2σ 2π σ 于是有 1 H c ( X ) ≤ ln 2π eσ = ln 2π eσ 2 2
5.4 熵功率
熵功率
当平均功率受限时,高斯分布信源的熵最大,若令 σ2 其平均功率为 ,则其熵为 1 H C ( X ) = ln 2π eσ 2 2 σ 2 ,则它的熵一定小于HC(X) 若另一信源的平均功率仍为 若平均功率为 σ 2的信源具有熵为HC(X),则称熵为HC(X)的 高斯信源的平均功率为熵功率 σ 2
σ =
2
1 2π e
e2 HC ( X )
σ 2 ≥σ 2
连续信源的剩余度
• 平均功率受限时,一般信源的熵小于高斯分布信源的熵,
σ 2 总小于信号的实际平均功率σ 2。 所以信号的熵功率 σ 2 ≥σ 2
• 熵功率的大小可以表示连续信源剩余的大小。信号平均功 率和熵功率之差 σ 2 − σ 2,称为连续信源的剩余度。
第六讲 连续信源的数学模型 及其测度
Review
离散信源
信源的数学模型
– 随机变量、随机序列
信源的信息测度
– 简单离散信源:H(X) – 离散无记忆信源:H ∞(X) = HL(X)=H(X) – 离散有记忆信源:H∞(X)
第六讲 连续信源的数学模型 及其测度
5.1 连续信源的数学 模型
连续信源的数学模型
连续熵
考虑一个定义在在[a,b]区间的连续随机变量,如下图
p(x) p(xi) △
a
0 xi
b
x
首先把X的取值区间[a,b]分割为n个小区间,小区间宽度为 △=(b-a)/n,根据概率分布与概率密度曲线区间面积的关系 X取值为xi的概率为p(xi).△ ,于是得到离散信源Xn的概 率源空间为:
x1 p(x1)△
a Δ →0
相对熵
连续熵
定义
H c ( X ) = − ∫ p ( x ) log p ( x ) dx
a b
1) 连续信源熵为相对熵,其值为绝对熵减去一个无穷 大量(因为连续信源有无穷多个状态) 2) 连续信源熵不具有非负性,可以为负值; 3) 连续信源熵不等于一个消息状态具有的平均信息 量,其值是有限的,而信息量是无限的; 4) 尽管连续信源的绝对熵为一个无穷大量,但信息论 的主要问题是信息传输问题,因此,当分析其互信 息量时是求两个熵的差,当采用相同的量化过程时, 两个无穷大量将被抵消,因而不影响分析。
−∞ −∞
∞ − λ1 − λ2 ( x − m )2


e e = ∫ p ( x) ln −∞ p ( x)
⎡ e − λ1 e − λ2 ( x − m ) ⎤ − 1⎥ dx dx ≤ ∫−∞ p ( x) ⎢ p( x) ⎢ ⎥ ⎣ ⎦

2
当且仅当 p ( x) = e e
− λ1 − λ2 ( x − m )2
i =1 i =1 N N
与数学期望无关,仅与方差有关 • 高斯分布的连续信源的熵: 1 H c ( X ) = ln 2π eσ 2 2
连续熵的性质
• 性质
– 连续熵可为负值(连续熵的相对性所致) – 可加性 Hc ( XY) = Hc ( X ) + Hc (Y / X ) = Hc (Y ) + Hc ( X / Y ) – 平均互信息的非负性,对称性,信息处理定理
H ( X ) = lim{H ( X n )} = lim{−∑ p ( xi ) log p ( xi ) Δ − log Δ}
Δ →0 n →∞ b Δ →0 n→∞ i =1
i =1
绝对熵
= − ∫ p ( x ) log p ( x )dx − lim{log Δ} = H c ( X ) + ∞
连续熵
平均互信息量
I(X;Y) = HC(X) − HC (X | Y) = HC (Y) − HC (Y | X) = HC (X) + HC (Y) − HC (XY)
连续变量的联合熵和条件熵
H c ( X Y ) = − ∫∫ p ( xy ) log 2 p ( xy ) dxdy
xy
H c ( X / Y ) = − ∫∫ p ( xy ) log 2 p ( x / y ) dxdy
X ∈ (-M,M) H c ( X ) ≤ ln 2M
证明:应用拉格朗日乘因子法,首先构造函数 由相对熵定义,可得
−∫
M −M
Hc ( X ) − λ ∫
M
−M
p( x )dx
M
−∫
M
−M
p( x)ln eλ dx
p ( x) ln p ( x)dx − λ ∫
−M
p ( x)dx
p ( x) ln eλ p( x)dx −M M M ⎛ 1 ⎞ 1 = ∫ p ( x) ln λ − 1⎟ dx dx ≤ ∫ p ( x) ⎜ λ −M −M e p ( x) ⎝ e p ( x) ⎠ 2M = λ −1 e 1 = 1, 即p ( x) = e − λ 时,等号成立。 当且仅当 eλ p( x) M −λ 将其代入约束条件 ∫ p( x )dx = 1 可得 e = 1/ 2 M ,则有
Ic ( X ;Y ) ≥ 0 I c ( X ; Y ) = I c (Y ; X ) Ic ( X ; Z ) ≤ Ic ( X ;Y )
5.3 最大连续熵定理
最大连续熵定理
连续信源与离散信源不同,1) 它不存在绝对 最大熵;2) 其最大熵与信源的限制条件有关。
• 峰值功率受限的最大熵定理 若连续随机变量X的峰值不超过M,即X限于(-M,M)内 取值,则X的相对熵 H c ( X ) ≤ ln 2 M 当且仅当X为均匀分布时等号成立。 • 平均功率受限的最大熵定理 若连续随机变量X的方差为一定,则X服从正态分布时 的相对熵最大,即 1 H c ( X ) ≤ ln 2π eσ = ln 2π eσ 2 2
x2 p(x2)△
… …
xn p(xn)△
x1 p(x1)△
其中
x2 p

n
i =1
p ( x i )Δ =

b a
p ( x)dx = 1
按离散信源熵定义 n
i =1 n
H ( X n ) = − ∑ [ p ( xi ) Δ ] log[ p ( xi ) Δ ]
xy
H c (Y / X ) = − ∫∫ p ( xy ) log 2 p ( y / x ) dxdy
xy
连续熵实例
• 均匀分布的连续信源的熵:仅与区域的边界有关
一维均匀分布 : H c ( X ) = ln(b − a )
N 维均匀分布 : H c ( X ) = ln ∏ (bi − ai ) = ∑ ln(bi − ai )
例 题
设pXY是(xy)二维高斯概率密度函数
p XY ( xy ) = 1 2πσ x σ y ⎧ ⎡ ( x − mx ) 2 1 ⎪ exp⎨− 2 ⎢ 2 2 ⎪ 2(1 − ρ ) ⎣ σ x 1− ρ ⎩

2 ρ ( x − mx )( y − m y )
σ xσ y
( y − my )2 ⎤ ⎫ ⎪ + ⎥⎬ 2 σ y ⎥⎭ ⎦⎪
求X与Y的平均互信息。
作 业
2.28 2.29
本节小结
(内容见课本32-39页)
连续信源的数学模型
– 连续型随机变量或随机序列 – 随机过程
连续信源的相对熵
– 定义及含义 – 性质:可加性、极值性(最大熵定理)
平均互信息
– 定义、含义及性质
熵功率
= − ∑ p ( xi ) ⋅ Δ ⋅ log p ( xi ) − ∑ p ( xi ) ⋅ Δ ⋅ log Δ
n i =1 n i =1
= − ∑ p ( xi ) ⋅ log p ( xi ) ⋅ Δ − log Δ
当△→0,n→∞时,Xn接近于连续随机变量X,这时可 得连续信源的熵为: n
输出消息取值上连续的信源,如语音,电视信源等,对 应的数学工具为连续型随机变量或随机过程。 连续信源输出的状态概率用概率密度来表示。
⎡ X ⎤ ⎡ ( a, b) ⎤ ⎢ p( x) ⎥ = ⎢ p( x) ⎥ ⎣ ⎦ ⎣ ⎦ 并满足 ∫ p ( x)dx = 1
a b
5.2 连续信源的 信息测度
X的方差一定 H c ( X ) ≤ ln 2π eσ
证明:考虑到约束条件σ = ∫−∞ p( x )( x − m) dx < ∞ 和 ∫−∞ p( x )dx = 1
相关文档
最新文档