2.6连续信源的熵

合集下载

连续信源高斯分布微分熵

连续信源高斯分布微分熵

连续信源高斯分布微分熵介绍连续信源高斯分布微分熵是信息论中的一个重要概念,用于描述连续信源的不确定性。

本文将深入探讨连续信源、高斯分布以及微分熵的概念和性质。

连续信源连续信源是指信源输出的符号集是连续的。

与离散信源不同,连续信源的输出可以是无限个可能值中的任意一个。

连续信源常用于描述实际世界中的连续变量,如温度、压力等。

高斯分布高斯分布,也被称为正态分布,是一种在统计学中常用的概率分布。

它的概率密度函数可以用以下公式表示:f(x)=1√2πσ2−(x−μ)22σ2其中,x是随机变量的取值,μ是均值,σ是标准差。

高斯分布的图像呈钟形曲线,均值处为峰值,随着离均值的距离增加,概率密度逐渐减小。

微分熵微分熵是对连续信源的不确定性进行度量的指标。

它可以用概率密度函数的负对数积分来计算,表示为:H(X)=−∫f+∞−∞(x)log2(f(x))dx其中,f(x)是连续信源的概率密度函数。

微分熵的单位是比特,表示信源输出的平均信息量。

微分熵的性质微分熵具有以下性质:1. 非负性微分熵始终大于等于零,即H(X)≥0。

当且仅当连续信源的概率密度函数为高斯分布时,微分熵达到最大值。

2. 不变性微分熵对信源的均匀线性变换具有不变性。

即对于连续信源X和线性变换Y=aX+b,有H(Y)=H(X),其中a和b是常数。

3. 可加性对于相互独立的连续信源X和Y,它们的联合微分熵等于它们各自微分熵的和,即H(X,Y)=H(X)+H(Y)。

4. 连锁规则对于连续信源X、Y和Z,有H(X,Y,Z)=H(X)+H(Y|X)+H(Z|X,Y)。

连锁规则可以推广到更多的连续信源。

应用场景连续信源高斯分布微分熵在许多领域都有重要的应用,下面列举几个常见的应用场景:1. 通信系统设计在通信系统中,了解信源的不确定性非常重要。

通过计算连续信源的微分熵,可以为系统设计提供指导,例如确定合适的编码方式和信道容量。

2. 数据压缩微分熵可以用于数据压缩算法中的信息量度量。

信源熵

信源熵

I ( y j ) I ( y j | xi ) I ( y j )
19
条件互信息量
条件互信息量: 在给定 zk 的条件下,xi 与 y j 之间的互信
I ( xi ; y j ) 0 后验概率 先验概率,X 与 Y 统计独立
I ( xi ; y j ) 0 后验概率 先验概率:由于信道受到干扰, 信宿收到 y j 后不但未使 xi 的不确定度 减少,反而增大了 xi 的不确定度 两个消息之间的互信息不大于其中任一消息的自信息 I ( xi ; y j ) I ( xi ) I ( x i | y j ) I ( x i )
符号从平均意义上表征信源总体特性的一个量对于特定的信源其熵只有一个1log?niiipxpx????1logniiipxpx????信息熵的物理含义信源输出前表征信源的平均不确定度信源输出后表征信源发出的每个消息所能提供的平均信息量是一个统计量反映了随机变量x的随机性22统计热力学中熵是表示分子混乱程度的一个物理量在孤立系统中进行的自发过程总是沿着熵增加的方向进行它是不可逆的平衡态相应于熵取最大值的状态即熵增加原理香农借用热力学中熵来描述信源的平均不确定度在信息论中有用的信息熵只会减少不会增加所以信息熵也被称为负热熵ijxyxy
2
信源的分类
信源输出以符号形式出现的具体消息,其分类如下: 按发送消息的时间和取值空间的分布 离散信源 单符号离散信源 连续信源 信源发出的 按发出符号之间的关系 消息是离散的、 无记忆信源 有限的或无限可 列的符号,且一 有记忆信源 个符号代表一条 按发送一条消息所需要的符号数 完整的消息 单个符号信源 符号序列信源
三种表达形式等效
log log p( x i y j ) p( x i ) p( y j ) p( y j | x i ) p( y j )

信源及信源熵习题问题详解

信源及信源熵习题问题详解

第二章:2.1试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?解:假设每个消息的发出都是等概率的,则:H(X 1)= log 2n = log 24 = 2 bit/symbol H(X 2)= log 2n = log 28 = 3 bit/symbol H(X 0) = log 2n = log 22 = 1 bit/symbol四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。

2.2居住某地区的女孩子有25淞大学生,在女大学生中有75艰身高160厘米以上的,而女 孩子中身高160厘米以上的占总数的一半。

假如我们得知“身高 160厘米以上的某女孩是大 学生”的消息,问获得多少信息量?解: 设随机变量X 代表女孩子学历X X 1 (是大学生)X 2 (不是大学生)P(X)0.250.75设随机变量Y 代表女孩子身高Y y 1 (身高 >160cm )y 2 (身高 <160cm )P(Y)0.5 0.5已知:在女大学生中有 75%是身高160厘米以上的即:p(y 1/ X 1)= 0.75求:身高160厘米以上的某女孩是大学生的信息量2.3 一副充分洗乱了的牌(含52牌),试问(1) 任一特定排列所给出的信息量是多少?⑵ 若从中抽取13牌,所给出的点数都不相同能得到多少信息量?解:(1) 52牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是:1(xj log p(x i ) log 2 52! 225.581 bit⑵52牌共有4种花色、13种点数,抽取13点数不同的牌的概率如下:413 p( X i )百C 52413I (X ) log 2 p(X i )g —13.208 bitC 52四进制脉冲可以表示 八进制脉冲可以表示 二进制脉冲可以表示4个不同的消息,例如 8个不同的消息,例如 2个不同的消息,例如{0, 1,2, 3}{0, 1,2, 3, 4, 5, 6, 7} {0, 1}四进制脉冲的平均信息量 八进制脉冲的平均信息量 二进制脉冲的平均信息量 所以:即:1(为/%)logp^/yjP (X 1)p(%/X 1)log 20.25 0.750.51.415 biti(202120130213001203210110321010021032011223210)求 (1) 此消息的自信息量是多少?(2) 此消息中平均每符号携带的信息量是多少?解:(1)此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:此消息的信息量是:Ilog 2 p 87.811 bit(2)此消息中平均每符号携带的信息量是:I/n 87.811/45 1.951 bit2.5从大量统计资料知道,男性中红绿色盲的发病率为 7%女性发病率为0.5%,如果你问一 位男士:“你是否是色盲? ”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少 信息量,平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量 是多少?解: 男士:P (X Y ) 7% I (x Y )log 2 p(x Y )log 2 0.07 3.837 bit P(X N ) 93% I (x N ) log 2 p(x N )log 2 0.93 0.105 bit2H (X)p(^)log 2 p(x i )(0.07log 2 0.07 0.93log 2 0.93) 0.366 bit / symbol1女士:2H (X)p(X i ) log 2 p(X i ) (0.005log 2。

信源及信源熵介绍

信源及信源熵介绍
14
2.2.1 自信息量
2. 不确定度 定义:随机事件的不确定度在数量上等于它的 自信息量.
说明:
a. 两者的单位相同,但含义却不相同。 b. 具有某种概率分布的随机事件不管发生与否,都存在
不确定度,不确定度表征了该事件的特性,而自信息 量是在该事件发生后给予观察者的信息量。
15
2.2.1 自信息量
22
2) 因为X中各符号xi的不确定度I(xi)为非负值,p(xi)也 是非负值,且0 p(xi)1,故信源的平均不确定度H(X) 也是非负量。
3) 平均不确定度H(X)的定义公式与热力学中熵的表示形 式相同,所以又把H(X)称为信源X的熵。熵是在平均意 义上来表征信源的总体特性的,可以表征信源的平均不确 定度。
2
p(xi ) log 2 p(xi ) i 1
= 0.72比特/次 说明:
1) 自信息量I(x1)和I(x2)只是表征信源中各个 符号的不确定度,一个信源总是包含着多个符 号消息,各个符号消息又按概率空间的先验概 率分布,因而各个符号的自信息量就不同。所 以自信息量不能作为信源总体的信息量。
=3 × 105 × 3.32 比特/画面
25
有一篇千字文章,假定每字可从万字表中任选, 则共有不同的千字文 N=100001000=104000 篇 仍按等概率1/100001000计算,平均每篇千字文 可提供的信息量为 H(X)=log2N =4 × 103 × 3.32
1.3 × 104 比特/千字文
离散消息的信源,如文字、数字、数据等符号都是
离散消息。
{ 离散信源
离散无记忆信源 离散有记忆信源
{ {
5
发出单个符号的无记忆信源 发出符号序列的无记忆信源 发出符号序列的有记忆信源 发出符号序列的马尔可夫信源

第6章 连续信源的熵、连续信道的平均互信息与信道容量

第6章 连续信源的熵、连续信道的平均互信息与信道容量

6.1 单符号连续信源的熵与微分熵
1、单符号连续信源
定义
信源发出的消息为单一符号,这些符号随机取值于 一个连续域
表示
连续型随机变量X
第6章 连续信源的熵、连续信道的平均互信息与信道容量
X x [a , b] dP(X x ) p( X x ) p( x ) dX
随机变量X的取值x为信源发出的消息
定义
对应于单符号连续信源和单符号连续信宿的信道
表示
信源——连续型随机变量X 信宿——连续型随机变量Y
第6章 连续信源的熵、连续信道的平均互信息与信道容量
X x [a , b] dP(X x ) p( X x ) p( x ) dX 随机变量X的取值x为信源发出的消息
Y y [c, d] 通常[c, d] [a , b] dP(Y y) p( Y y) p( y) dY 随机变量Y的取值y为信宿收到的消息
第6章 连续信源的熵、连续信道的平均互信息与信道容量
第6章 连续信源的熵、连续信道的平均互信息 与信道容量
教学内容和要求
理解单符号连续信源及其模型,理解其熵,掌握 其微分熵 理解单符号连续信道及其模型,掌握其平均互信 息,理解其信道容量 掌握高斯信道的信道容量,香农公式
第6章 连续信源的熵、连续信道的平均互信息与信道容量
微分熵不能作为信息度量,平均互信息——微分熵 差,具有信息度量的意义 信宿每收到一条消息所含信源一条消息的平均信息
第6章 连续信源的熵、连续信道的平均互信息与信道容量
I(X; Y) h(X) h(X / Y)
以信宿为参考,利用信宿的微分熵和信道的噪声 微分熵来度量信道中传输的平均信息 以信源为参考,利用信源的微分熵和信道的损失 微分熵来度量信道中传输的平均信息

信息论与编码2-信源及信源熵

信息论与编码2-信源及信源熵
随机英文字母信源,其中每个英文字母出现的概率是固定的。
实例3
随机天气状况信源,其中晴天、雨天、雪天出现的概率分别是0.7、0.2、0.1。
实例1
随机二进制信源,其中每个二进制符号(0或1)出现的概率为0.5。
离散无记忆信源的实例
离散有记忆信源
03
离散有记忆信源是输出符号序列中符号与符号之间存在记忆关系的离散随机序列。
应用场景
广泛应用于网络通信、金融交易、军事通信等领域,保障信息安全和隐私。
加密通信
03
应用景
广泛应用于通信系统、数据存储等领域,如CD、DVD、硬盘等存储设备的纠错编码。
01
纠错原理
通过在数据中添加冗余信息,检测和纠正数据传输过程中的错误。
02
常见纠错编码
如奇偶校验码、海明码、循环冗余校验码等,这些编码利用数学原理对数据进行校验,确保数据的正确性。
纠错编码
THANKS
感谢观看
离散有记忆信源的输出符号之间存在统计依赖关系,这种关系会影响信息熵的计算。
定义
性质
离散有记忆信源的定义与性质
计算方法
条件熵
联合熵
离散有记忆信源熵的计算
离散有记忆信源熵是描述信源不确定性的度量,可以通过统计模型来计算。具体计算方法包括条件熵和联合熵等。
条件熵是在给定前一个或多个符号条件下,输出符号的熵。
应用场景
广泛应用于文件存储、网络传输、多媒体处理等领域,如JPEG图片压缩、MP3音频压缩等。
数据压缩原理
通过去除数据中的冗余信息,将数据压缩至更小的存储空间,提高存储和传输效率。
数据压缩
加密原理
通过特定的加密算法将明文转换为密文,确保信息在传输过程中的保密性。

第二章 信源和信息熵

第二章  信源和信息熵

第二章 信源和信息熵
2.1 信源的数学模型及分类
通信系统模型及信息传输模型:
第二章 信源和信息熵
一、离散无记忆信源
例:扔一颗质地均匀的正方体骰子,研究其下落后, 朝上一面的点数。每次试验结果必然是1点、2点、3点、 4点、5点、6点中的某一个面朝上。每次试验只随机出 现其中一种消息,不可能出现这个集合以外的消息, 考察此事件信源的数学模型。
• 平均符号熵就是信源符号序列中平均每个信 源符号所携带的信息量。
• 条件熵≤无条件熵;条件较多的熵≤条件较少 的熵,所以:
第二章 信源和信息熵
离 散 平 稳 信 源 性 质(H1(X)<∞时):
• 条件熵随N的增加是递减的; • 平均符号熵≥条件熵; • 平均符号熵HN(X)随N增加是递减的; • 极限熵
且:I(X1;X2)=I(X2;X1)
第二章 信源和信息熵
注意:任何无源处理总是丢失信息的,至多保持原来 的信息,这是信息不可增性的一种表现。
二、离散平稳信源的极限熵 设信源输出一系列符号序列X1,X2, ‥XN 概率分布: 联合熵:
定义序列的平均符号熵=总和/序列长度,即:
第二章 信源和信息熵
即:收信者所获得的信息量应等于信息传输前 后不确定性的减少的量。
例:设一条电线上串联8个灯泡,且损坏的可 能性为等概,若仅有一个坏灯泡,须获知多少 信息量才可确认?
第二章 信源和信息熵
例解:
测量前,P1(x)=1/8,存在不确定性: I(P1(x))=log8=3bit
第一次测量获得信息量: 第二次测量获得信息量: 第三次测量获得信息量: 每次测量获得1bit信息量,需三次测量可确定坏灯泡
例:运用熵函数的递增性,计算熵函数 H(1/3,1/3,1/6,1/6)的数值。

连续信源的最大熵与最大熵条件解析

连续信源的最大熵与最大熵条件解析

青岛农业大学本科生课程论文论文题目连续信源的最大熵与最大熵条件学生专业班级信息与计算科学 0902学生姓名(学号)指导教师吴慧完成时间 2012-6-25 2012 年 6 月 25 日课程论文任务书学生姓名指导教师吴慧论文题目连续信源的最大熵与最大熵条件论文内容(需明确列出研究的问题):1简述连续信源的基本概要。

2 定义了连续信源的差熵公式,分别介绍了满足均匀分布和高斯分布的两种特殊信源。

3推导了连续信源的最大熵值及最大熵条件。

资料、数据、技术水平等方面的要求:1概率论的均匀分布、高斯分布的相关知识。

2以及在这两种分布下的连续信源和高斯信源。

3在不同的约束条件下,求连续信源差熵的最大值一种是信源的输出值受限,另一种是信源的输出平均功率受限。

4 詹森不等式以及数学分析的定积分和反常积分、不定积分等数学公式。

发出任务书日期 2012-6-6 完成论文日期 2012-6-25 教研室意见(签字)院长意见(签字)连续信源的最大熵与最大熵条件信息与计算科学指导老师吴慧摘要:本文简述了连续信源的基本概要并定义了连续信源的差熵公式,分别介绍了满足均匀分布和高斯分布的两种特殊信源,推导了连续信源的最大熵值及最大熵条件。

关键词:连续信源最大熵均匀分布高斯分布功率受限The maximum entropy and maximum entropy conditionof consecutive letter of the sourceInformation and Computing Sciences Bian jiangTutor WuhuiAbstract:: On the base of continuous source this eassy describes the basic outline and define differential entropy formula, introduced a uniform distribution and Gaussian distribution of the two special source, derivation of a continuous source of maximum entropy and maximum entropy conditions.Keyword: Continuous source Maximum entropy Uniform distributionNormal distribution Power is limited引言:科学技术的发展使人类跨入了高度发展的信息化时代。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

2.6连续信源的熵所谓连续信源就是指其输出在时间上和取值上都是连续的信源。

见图2.6.1。

各采样值的概率可用其概率分布密度函数来确定。

图2.6.2表示一个连续信源输出的幅度和其概率分布密度的关系。

设各种采样值之间无相关性,信源熵可写成:])(log[)(dx x p dx x p i ii ∑[例2.6.1]一连续信源,其输出信号的概率分布密度如图2.6.3所示,试计算其熵。

连续信源的熵不再具有非负性,这与离散信源显然不同。

同样可以定义两个连续变量的联合熵:⎰⎰-=dxdy xy lbp xy p XY H )()()(以及定义两个连续变量的条件熵;⎰⎰-=dxdy y x lbp xy p Y X H )/()()/( ⎰⎰-=dxdy x y lbp xy p X Y H )/()()/(连续信源的共熵、条件熵、单独熵之间也存在如下关系:)()()(Y H X H XY H +≤2.6.1三种特定连续信源的最大熵与离散信源不同,求连续信源的最大熵需要附加条件,常见的有三种。

1.输出幅度范围受限(或瞬时功率受限)的信源2.输出平均功率受限的信源 3.输出幅度平均值受限的信源 (1)限峰值功率的最大熵定理若代表信源的N 维随机变量的取值被限制在一定的范围之内,则在有限的定义域内,均匀分布的连续信源具有最大熵。

设N 维随机变量∏=∈Ni iib a X 1),( iia b>其均匀分布的概率密度函数为⎪⎪⎩⎪⎪⎨⎧-∉-∈-=∏∏∏===Ni i i Ni i i Ni i i a b x a b x a b x p 111)(0)()(1)(除均匀分布以外的其他任意概率密度函数记为)(x q ,并用[]X x p H c),(和[]X x q H c),(分别表示均匀分布和任意非均匀分布连续信源的熵。

在1)()(11112121==⎰⎰⎰⎰N b a b a N b a b a dx dx dxx q dx dx dxx p N NN N的条件下有[]⎰⎰-=1112)(log)(),(b a Nb ac dx dx x q x q X x q H NN⎰⎰⎰⎰⎰⎰+-=⎥⎦⎤⎢⎣⎡∙=111111121212)()(log)()(log)()()()(1log )(b a Nb a b a N b a b a Nb a dx dx x q x p x q dx dx x p x q dx dx x p x p x q x q NNNNN N令0,)()(≥=z x q x p z显然运用著名不等式1ln -≤z z 0>z 则]),([11)(log1)()()()(1log)(]),([1211121111X x p H a bdx dx x q x p x q dx dx a bx q X x q H c Ni i ib a Nb a b a N Ni i ib ac N N NN=-+-=⎥⎦⎤⎢⎣⎡-+--≤∏⎰⎰⎰∏⎰==则证明了,在定义域有限的条件下,以均匀分布的熵为最大。

在实际问题中,随机变量i X 的取值限制在i b ±之间,峰值为||i b 。

如果把取值看作是输出信号的幅度,则相应的峰值功率就是2ib 。

所以上述定理被称为峰值功率受限条件下的最大连续熵定理。

此时最大熵值为:∏∏===--=Ni Ni ii ic b b bX x p H 11222log)]([log]),([(2)限平均功率的最大熵定理若信源输出信号的平均功率P 和均值m 被限定,则其输出信号幅度的概率密度函数为高斯分布时,信源具有最大熵值。

单变量连续信源X 呈高斯分布时,PDF222)(221)(σπσm x ex p --=当X 是高斯分布以外的其它任意分布时 ,PDF 记为)(x q ,由约束条件已知Px q x dx x p x m x xq dx x xp x q dx x p ======⎰⎰⎰⎰⎰⎰∞∞-∞∞-∞∞-∞∞-∞∞-∞∞-)()()()(1)()(22由于随机变量的方差222222][])[(σ=-=-=-m P m X E m X E当均值m 为0时,平均功率就等于方差P =2σ,可见对平均功率和均值的限制就等于对方差的限制。

用[]X x p H c),(和[]X x q H c),(分别表示高斯分布和任意非高斯分布连续信源的熵由前面的讨论已知)2(log 21]),([22σπe X x p H c =]),([11)2(log 211)()()()2(log 21)()(log )()(log)()()()(1log )()(log )(]),([22222222X x p H e dxx q x p x q e dx x q x p x q dx x p x q x p x p x q x q dxx q x q X x q H c c =-+=⎥⎦⎤⎢⎣⎡-+≤⎥⎦⎤⎢⎣⎡+-=⎥⎦⎤⎢⎣⎡∙=-=⎰⎰⎰⎰⎰∞∞-∞∞-∞∞-∞∞-∞∞-σπσπ总结:在上两种情况下,信源的统计特性与两种常见噪声—均匀噪声和高斯噪声的统计特性相一致。

(3)均值受限条件下的最大连续熵定理若连续信源X 输出非负信号的均值受限,则其输出信号幅度呈指数分布时,连续信源X 具有最大熵值。

连续信源X 为指数分布时PDF 为)0(1)(≥=-x em x p mx用[]X x p H c),(和[]X x q H c),(分别表示指数分布和任意非指数分布连续信源的熵。

记限制条件为:mx xq dx x xp x q dx x p ====⎰⎰⎰⎰∞∞∞∞0)()(1)()( meX x p H c 2log ]),([=,任意其它分布的信源熵为]),([log11)(log)(log 1)()()(1log )()()(log )()(log)()()()(1log )()(log)(]),([222222202X x p H me dx x q mx e dx x q m dxx q x p x q dx e mx q dx x q x p x q dx x p x q x p x p x q x q dxx q x q X x q H c mxc ==-++=⎥⎦⎤⎢⎣⎡-+⎥⎦⎤⎢⎣⎡-≤⎥⎦⎤⎢⎣⎡+-=⎥⎦⎤⎢⎣⎡∙=-=⎰⎰⎰⎰⎰⎰⎰⎰∞∞∞∞-∞∞--∞∞-∞∞-∞∞总结:连续信源与离散信源不同,它不存在绝对的最大熵。

其最大熵与信源的限制条件有关,在不同的限制条件下,有不同的最大连续熵值。

对三种限制条件下的连续信源的最大熵分析结果表明,连续信源的最大熵与离散信源不同,它不存在绝对的最大熵,而随限定条件不同有各自不同的最大连续熵值。

2.6.2熵功率为了表示冗余的程度,定义熵功率,所谓熵功率就是指与某个平均功率为(幅度分布为非高斯分布)的非高斯信源有同样熵的高斯信源的平均功率。

熵功率是无差错传送必要信息的最小功率。

设连续信源X 在PDF 为)(x p 时达到最大熵值]),([X x p H c,除此之外的其它任何PDF )(x q 达到的熵值为]),([X x q H c,两熵之差即表示信源的剩余,记为q p I ,,也叫信息变差(或信源的冗余)。

即信源从一种PDF )(x p 转到另一种PDF )(x q 时,信源所含信息量发生的变化。

]),([]),([,X x q H X x p H I c c q p -=从信息变差的概念出发,连续信源的熵可理解为最大熵与信息变差之间的差值。

qp c c I X x p H X x q H ,]),([]),([-=讨论均值为零、平均功率限定为P 的连续信源的冗余问题。

当PDF 为高斯分布时达到最大熵ePX x p H c π2log21]),([2=仅随限定功率P的变化而变化。

假定限定的功率为P ,相应的熵为]),([p cX x p H,若P P ≤,则有]),([]),([X x p H X x p H c p c ≤当PDF 为其它任何分布)(x q 时,也有 ]),([]),([X x p H X x q H c c ≤总能找到某一个P P ≤,使Pe X x p H X x q H p c c π2log 21]),([]),([2==此即P 的大小决定了实际信源的熵值。

称P 为连续信源X 在PDF 为)(x q 时的熵功率。

它与信息变差之间的关系:PPI q p 2.log21=总结:信源的冗余度决定于平均功率的限定值P 与信源的熵功率P 之比。

相关文档
最新文档