第四章 限失真信源编码
合集下载
清华《信源编码》第四章

b 1 4e b e 2b
要使D最小, 令 e-b=0.293, D=0.657,则 =R(D)=60.6%, 比分别量化有所提高. 三维四维联合量化尚可进一步提高.
30
进一步提高压缩比的探讨(7)
K维情况,Zador得下列结果:
Lim n 2 / k G ห้องสมุดไป่ตู้ [ p( x ) k ,
21
语声的脉码调制(6)
A=87.65, y’(0)=16, =20log1016=24 db, 可压缩4比特,仍能满足小信号信扰比。 y’(1)=0.183, =-15db, 大信号时量化 噪声仍可满足。 实际用13线段来近似,均匀量化后用数 字逻辑电路实现
22
语声的脉码调制(7)
1
y
信号功率 W=2/2, 量化噪声 L 2 n L2 L Wq pi L p( x)dx 3n 2 (1 e ) 12 i 1 12
18
语声的脉码调制(3)
过载噪声
2 Wo 2 ( x L ) p( x )dx 2 L
2 L L 2 2 ( } n n
26
进一步提高压缩比的探讨(3)
要后处理,也可不用先达到最小平均失真, p(y)=p(-y)=z/2, H(Y)=z+H(z) =-log(1-2z+2z)/[z+H(z)] 取导置零,可得z=0.41, =69%. 对于独立序列,后处理虽能提高编码效率, 但效果不明显,如何能快速逼近R(D)也不 知. 对于相关信源,后处理以消除相关性, 可取得很大压缩比,以后讨论.
13
2
最佳标量量化(7)
绝对失真
( 2i 1) L dx L D |x | n L 4n 4 i 1 ( i 1) L
信息论与编码第4章无失真信源编码

0
2
1
w1 0 1 2 0 1 2
01
2w2
w3 w4
0
1
2
w5
w6 w7 w8
w9 w10 w11
0级节点 1级节点 2级节点
3级节点
25
4.3 变长编码
码树编码方法
(1)树根编码的起点; (2)每一个中间节点树枝的个数编码的进制数; (3)树的节点编码或编码的一部分; (4)树的终止节点(端点、树叶)码; (5)树的节数码长; (6)码位于多级节点变长码; (7)码位于同一级节点码等长码;
设离散无记忆信源X的熵为H(X), 若对长为N的信源符号序 列进行等长编码,码长为L , 码元符号个数为m. 则对任意的
>0, >0, 只要
L log m H ( 率小于。
反之,当
L log m H ( X ) 2
N
时, 则译码差错概率一定是有限值(不可能实现无失真编 码), 而当N足够大时, 译码错误概率近似等于1。
概率分布 0.5 0.25 0.125 0.125
码1:C1 码2:C2 码3:C3
00
0
0
码4:C4 1
码5:C5 1
01
11
10
10
01
10
00
00
100
001
11
11
01
1000
0001
等长码 非唯一 非 唯 唯一可译 及时码 可译 一可译
11
4.1 无失真信源编码的概念
关系 即时码一定是唯一可译码 唯一可译码一定是非奇异码 定长的非奇异码一定是唯一可译码 非定长的非奇异码不一定是唯一可译码
一般地,平均码长: L 3.322 (N ) N
限失真编码

DK,MK
TK:门限电平(k+1个)
qk:电平值 (k个)
4) 均匀量化 概念:量化间隔相等
最优均匀量化:使DK达到最小均匀量化 例:对高斯信源
即:Rk=1/4+1/2log(Pu/Dk) 问题:均匀量化不是DK最小的一个、提出一
种Uoyd-Max算法
5)Lioyd-Max算法 思想:反复对{TK}、{qk}在使DK最小的两个必要条
变换编码原理
• 定义:将空域图像信号映射变换到另一个正交矢量空 间(变换域或频域),产生一批变换系数,对系数进 行编码处理
• 原理:
– 信号在时域描述时信息冗余度大,变换后,参数独 立,去掉相关性,减少冗余,数据量大大减少。
– 利用人的视觉特性,对高频细节不敏感,可以滤除 高频系数,保留低频系数。
件进行迭代(必要条件为:P235) Tk-1=1/2(qk-1+qk) ∫(u- qk)p(u)du=0
则求出{Tk}{qk}. 6)实例:(高斯信源) 表6-2(P236)举例说明
输出 1 电平 数K
最优 1 均匀 量化
L-M算 1 法
4
8
16 24 32
0.1188 0.03744 0.01154 0.005747 0.003490
uv(ω),否则编码uv(1) – 译码:再现v(ω) – 失真度计算:在所有随机码书和Un空间统计平均的基础上计算平均失真
度
§7.4:限失真信பைடு நூலகம்编码定理-5
• 限失真信源编码定理的几点说明
– 只是一个存在性定理,没有构造方法 – 存在问题:
• 符合实际信源的R(D)函数计算相当困难
– 信源统计特性的确切数学描述难得 – 符合主客观实际的失真测度难得 – R(D)计算本身困难
TK:门限电平(k+1个)
qk:电平值 (k个)
4) 均匀量化 概念:量化间隔相等
最优均匀量化:使DK达到最小均匀量化 例:对高斯信源
即:Rk=1/4+1/2log(Pu/Dk) 问题:均匀量化不是DK最小的一个、提出一
种Uoyd-Max算法
5)Lioyd-Max算法 思想:反复对{TK}、{qk}在使DK最小的两个必要条
变换编码原理
• 定义:将空域图像信号映射变换到另一个正交矢量空 间(变换域或频域),产生一批变换系数,对系数进 行编码处理
• 原理:
– 信号在时域描述时信息冗余度大,变换后,参数独 立,去掉相关性,减少冗余,数据量大大减少。
– 利用人的视觉特性,对高频细节不敏感,可以滤除 高频系数,保留低频系数。
件进行迭代(必要条件为:P235) Tk-1=1/2(qk-1+qk) ∫(u- qk)p(u)du=0
则求出{Tk}{qk}. 6)实例:(高斯信源) 表6-2(P236)举例说明
输出 1 电平 数K
最优 1 均匀 量化
L-M算 1 法
4
8
16 24 32
0.1188 0.03744 0.01154 0.005747 0.003490
uv(ω),否则编码uv(1) – 译码:再现v(ω) – 失真度计算:在所有随机码书和Un空间统计平均的基础上计算平均失真
度
§7.4:限失真信பைடு நூலகம்编码定理-5
• 限失真信源编码定理的几点说明
– 只是一个存在性定理,没有构造方法 – 存在问题:
• 符合实际信源的R(D)函数计算相当困难
– 信源统计特性的确切数学描述难得 – 符合主客观实际的失真测度难得 – R(D)计算本身困难
限失真信源编码定理

14
5.4.1 游程编码
❖ 理论上来说游程长度可从1到无穷。要建立游程长 度和码字之间的一一对应的码表是困难的。一般 情况下,游程越长,出现的概率就越小;当游程 长度趋向于无穷时,出现的概率也趋向于0。
❖ 按哈夫曼码的编码规则,概率越小码字越长,但 小概率的码字对平均码长影响较小,在实际应用 时常对长码采用截断处理的方法
• 香农编码、费诺编码、哈夫曼编码主要是针 对无记忆信源。
• 当信源有记忆时上述编码效率不高;
• 游程编码对相关信源编码更有效; • 香农编码、费诺编码、哈夫曼编码属于无失
真信源编码; • 游程编码属于限失真信源编码。
11
5.4.1 游程编码
• 游程:
• 数字序列中连续出现相同符号的一段。 • 二元序列的游程:只有“0”和“1”两种符号。
210
211
175
211
209
211
211
211
211
176
216
211
212
210
211
210
177
212
211
210
211
212
210
178
211
209
209
211
210
209
179
209
207
208
208
208
205
9
5.4.un-Length Encoding)表 示。该压缩编码技术相当直观和经济,运算也相当 简单,因此解压缩速度很快。RLE压缩编码尤其适 用于计算机生成的图形图像,对减少存储容量很有 效。
❖ 选取一个适当的n值,游程长度为1,2,…,2n-1, 2n, 所有大于2n 者都按2n 来处理。然后按照哈夫曼码 的编码规则,将上列2n 种概率从大到小排队,构 成码树并得到相应的码字。
5.4.1 游程编码
❖ 理论上来说游程长度可从1到无穷。要建立游程长 度和码字之间的一一对应的码表是困难的。一般 情况下,游程越长,出现的概率就越小;当游程 长度趋向于无穷时,出现的概率也趋向于0。
❖ 按哈夫曼码的编码规则,概率越小码字越长,但 小概率的码字对平均码长影响较小,在实际应用 时常对长码采用截断处理的方法
• 香农编码、费诺编码、哈夫曼编码主要是针 对无记忆信源。
• 当信源有记忆时上述编码效率不高;
• 游程编码对相关信源编码更有效; • 香农编码、费诺编码、哈夫曼编码属于无失
真信源编码; • 游程编码属于限失真信源编码。
11
5.4.1 游程编码
• 游程:
• 数字序列中连续出现相同符号的一段。 • 二元序列的游程:只有“0”和“1”两种符号。
210
211
175
211
209
211
211
211
211
176
216
211
212
210
211
210
177
212
211
210
211
212
210
178
211
209
209
211
210
209
179
209
207
208
208
208
205
9
5.4.un-Length Encoding)表 示。该压缩编码技术相当直观和经济,运算也相当 简单,因此解压缩速度很快。RLE压缩编码尤其适 用于计算机生成的图形图像,对减少存储容量很有 效。
❖ 选取一个适当的n值,游程长度为1,2,…,2n-1, 2n, 所有大于2n 者都按2n 来处理。然后按照哈夫曼码 的编码规则,将上列2n 种概率从大到小排队,构 成码树并得到相应的码字。
第4章无失真信源编码

是信源编码
码的分类-I
(1) 定长码:码中所有码字的长度都相同, 变长 码:码中的码字长短不一
信源 信源符号出
码表
符号ai 现概率p(ai) 码1 码2
a1
p(a1)
00 0
a2
p(a2)
01 01
a3
p(a3)
10 001
a4
p(a4)
11 111
表4-1 变长码与定长码
码的分类-II
(2)非奇异码:若信源符号和码字一一对应的 奇异码:反之。下表码1是奇异码,码2是非奇异码。
将这两个概率相加作为一个新字母的概率,与未分 配的二进符号的字母重新排队。 3. 对重排后的两个概率最小符号重复(2)的过程。 4. 重复上述过程,直到最后两个符号配以0和1为止。 5. 从最后一级开始,向前返回得到各个信源符号所对 应的码元序列,即相应的码字。
例 对以下信源进行哈夫曼编码
信源符号ai 概率p(ai) 码字Wi
H(S) L H(S) 1
log r
log r
离散平稳无记忆序列变长编码定理:对于平均符号 熵为H(S)的离散平稳无记忆信源,必存在一种无失真 编码方法,使平均信息率满足不等式
H (S) LN H (S) 1 log r N log r N
将定理进行改写:
H (S )
LN N
log r
H(S)
通常可用码树来表示各码字的构成
0
1
0
1
0
1
01
01
01
01
0 1 0 10 10 1 0 10 10 1 0 1
二进制码树(满树)
即时码的码树表示(2)
0
1
第四章 有限失真信源编码

可以允许一定的失真度
完全保真没必要
§4.1:概述-6
引出的研究内容
限失真的信源编码问题
允许一定的失真度下,能将信源信息压缩到什么 程度?(最少需要多少比特才能在收端描述信 源?) 一定的信息传输率R下,允许的最大失真是多少? 失真如何度量? 率失真函数如何计算?
相关问题
§4.1:概述-7
Calculation of R(D) of Gauss source
Known conditions:高斯信源U,其均值为m,方差为σ 2, 接收变量V 2 ( u m ) 1 概密函数: p (u ) exp[ 2 ]
2 2
失真函数:均方误差失真,即:
d (u, v) (u v)
1) 失真在传输中是不可避免的; 2) 接收者(信宿)无论是人还是机器设备, 都有一定的分辨能力与灵敏度,超过分辨能力 与灵敏度的信息传送过程是毫无意义的; 3) 即使信宿能分辨、能判别,但对通信质 量的影响不大,也可以称它为允许范围内的失 真; 4) 我们的目的就是研究不同的类型的客观 信源与信宿,在给定的 Qos 要求下的最大允许 (容忍)失真 D ,及其相应的信源最小信息率 R(D).
R(D)
R(D)>0
R(D)=0
min
Q(v)
U ,V
Q(v) p(u)d (u, v) Q (v ) d (v )
' V V U
min
Q(v)
Dmax
D
§4.3:率失真函数-4
R(D)的计算
求解R(D),--求解互信息的极小值 互信息I(X,Y)是条件转移概率的下凸函数极小值 存在 一般情况下很难得到R(D)的显函数表达式,只能 得到参量表达式 具体计算很困难,一般利用计算机进行迭代计算 在一些特殊情况下,R(D)有显式解。
第4章 限失真信源编码优秀PPT

单符号连续信道的信息传输率: R=I(X;Y), 比特/自由度 (4―11)
多维连续信道平均互信息等相关内容可参见有关 文献。
4.2
4.2.1 由于只涉及信源编码问题,所以可以将信道编码
和译码看成是信道的一部分。这样信宿收到消息的失 真(或误差)只是由信源编码带来的。从直观感觉可 知,若允许失真越大,信息传输率可越小;若允许失真 越小,信息传输率需越大。所以信息传输率与信源编 码所引起的失真(或误差)是有关的。
式中: x—— y——信宿的一个接收序列;
D ( N ) ——N维信源符号序列的平均失真度。
2. 定义连续信源平均失真度为
D E [ d ( u ,) ] p ( u )p (|u ) d ( u ,) d u d
(4―29) 式中: d(u,v)——
p(u)——连续信源u p(v|u)——信道传递概率密度。
随机波形信源输出的消息是随机的,因此,可用 随机过程来描述。用随机过程描述其输出消息的信源 称为随机波形信源。若信源输出用平稳连续型随机序 列来描述,则此信源称为连续平稳信源。连续平稳信 源也可分为连续平稳无记忆信源和连续平稳有记忆信 源。平稳连续型随机序列中每个自由度上的变量是连 续随机变量。用连续随机变量描述其输出消息的信源 称为连续信源。下面讨论它们的信息测度。
N l1
(4―24)
若平均失真度 D 不大于所允许的失真D,即:
DD
(4―25)
称式(4―25)为保真度准则。 N维信源序列的保真度准则是:平均失真度
不大于允许失真ND,即:
D(N) ND
(4―26)
1.
在信源给定,又定义了失真函数以后,总希望在 满足一定失真的情况下,使信源传输给信宿的信息传 输率R尽可能地小。或者说,在满足保真度准则下,寻 找信源必须传输给信宿的信息率R的下限值,这个下限 值与D有关。从接收端来看,就是在满足保真度准则下, 寻找再现信源消息所必须获得的最低平均信息量。而 接收端获得的平均信息量可用平均互信息量I(U;V)来
多维连续信道平均互信息等相关内容可参见有关 文献。
4.2
4.2.1 由于只涉及信源编码问题,所以可以将信道编码
和译码看成是信道的一部分。这样信宿收到消息的失 真(或误差)只是由信源编码带来的。从直观感觉可 知,若允许失真越大,信息传输率可越小;若允许失真 越小,信息传输率需越大。所以信息传输率与信源编 码所引起的失真(或误差)是有关的。
式中: x—— y——信宿的一个接收序列;
D ( N ) ——N维信源符号序列的平均失真度。
2. 定义连续信源平均失真度为
D E [ d ( u ,) ] p ( u )p (|u ) d ( u ,) d u d
(4―29) 式中: d(u,v)——
p(u)——连续信源u p(v|u)——信道传递概率密度。
随机波形信源输出的消息是随机的,因此,可用 随机过程来描述。用随机过程描述其输出消息的信源 称为随机波形信源。若信源输出用平稳连续型随机序 列来描述,则此信源称为连续平稳信源。连续平稳信 源也可分为连续平稳无记忆信源和连续平稳有记忆信 源。平稳连续型随机序列中每个自由度上的变量是连 续随机变量。用连续随机变量描述其输出消息的信源 称为连续信源。下面讨论它们的信息测度。
N l1
(4―24)
若平均失真度 D 不大于所允许的失真D,即:
DD
(4―25)
称式(4―25)为保真度准则。 N维信源序列的保真度准则是:平均失真度
不大于允许失真ND,即:
D(N) ND
(4―26)
1.
在信源给定,又定义了失真函数以后,总希望在 满足一定失真的情况下,使信源传输给信宿的信息传 输率R尽可能地小。或者说,在满足保真度准则下,寻 找信源必须传输给信宿的信息率R的下限值,这个下限 值与D有关。从接收端来看,就是在满足保真度准则下, 寻找再现信源消息所必须获得的最低平均信息量。而 接收端获得的平均信息量可用平均互信息量I(U;V)来
ITD第四章限失真信源编码2

i
写成矩阵形式
1 ( p11 p22 ) 1 (1 1)
2020/4/14
28
由此解得
p11
p22
1,
1
1
1,
p(1 )
2
1
(1 p)(1 )
(2)按下式解方程
j
p( y j ) exp[ sd (xi ,
yj
)]
1
(xi )
,
i 1, , n
2020/4/14
29
写成矩阵形式
2020/4/14
5
(5) 如何计算Dmax? R(D)=0就是I(X;Y)=0,这时试验
信道输人与输出是互相独立的,所以条 件概率p(yj/xi)与xi无关。即 Pij=P(yj/xi)=P(yj)=pj 这时平均失真为
nm
D
pi p j d ij
i1 j 1
式中dij=d(xi,yj)
2020/4/14
pi
[p'ij
(1
)
p '' ij
]d
ij
ij
pi pi'j dij (1 )
pi
p '' ij
d ij
ij
ij
D'(1 )D'' D
p 这是因为
'和
ij
pi'j' 分别是PD’,和PD’’中的
元,所以造成的失真必小于D’和D’’ .
2020/4/14
14
• 利用I(Pij)的下凸性,可得
(输出符号概率:p(y1)=0,p(y2)=1)
■
2020/4/14
9
写成矩阵形式
1 ( p11 p22 ) 1 (1 1)
2020/4/14
28
由此解得
p11
p22
1,
1
1
1,
p(1 )
2
1
(1 p)(1 )
(2)按下式解方程
j
p( y j ) exp[ sd (xi ,
yj
)]
1
(xi )
,
i 1, , n
2020/4/14
29
写成矩阵形式
2020/4/14
5
(5) 如何计算Dmax? R(D)=0就是I(X;Y)=0,这时试验
信道输人与输出是互相独立的,所以条 件概率p(yj/xi)与xi无关。即 Pij=P(yj/xi)=P(yj)=pj 这时平均失真为
nm
D
pi p j d ij
i1 j 1
式中dij=d(xi,yj)
2020/4/14
pi
[p'ij
(1
)
p '' ij
]d
ij
ij
pi pi'j dij (1 )
pi
p '' ij
d ij
ij
ij
D'(1 )D'' D
p 这是因为
'和
ij
pi'j' 分别是PD’,和PD’’中的
元,所以造成的失真必小于D’和D’’ .
2020/4/14
14
• 利用I(Pij)的下凸性,可得
(输出符号概率:p(y1)=0,p(y2)=1)
■
2020/4/14
9
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
均匀量化的量化误差: e x Q(x) x yi
量化器均方误差:
e2
2
x Q(x) p(x)dx
N
i 1
ai ai1
(x
yi
)2
p(x)dx
量化器输入方差: 2 x2 p(x)dx N ai x2 p(x)dx
i 1 ai1
量化器的信噪比SNR:
SNR
10
lg
波形信道
{y(t)}
v X ( X1,L , X N )
Xi [a, b]
v Y (Y1 ,L ,YN )
Yi [c, d ]
vv
v
vv
v
vv
I( X;Y ) h( X ) h( X | Y ) h(Y ) h(Y | X )
4.2 信息率失真函数
实际应用中 , 允许信号有一定的失真 , 当失真超过一定 限度后 , 信息将失去实用价值 , 因此要规定失真的限度.
失真函数R(D)的问题 , 可以归结为在约束条件保真度准 则 D ≤ D 下, 求极小值的问题 .
6) 限失真信源编码定理 (香农第三定理)
设离散无记忆信源X的信息率失真函数R(D) , 并
选定失真函数 , 对于任意允许平均失真度 D ≥0 和任
意小的ε≥0, 当信息率R ≥R(D) ,只要信源序列 L足够
N维信源符号序列的信息率失真函数RN(D):
RN
(D)
min {I (U;V
p( y|s);D ( N )ND
)}
4) 连续信源的信息率失真函数
连续信源平均失真度为:
D E[d (u, v)] p(u) p(v | u)d (u, v)dudv
连续信源的信息率失真函数:
R(D) inf {I (U;V )} P ( v|u )BD
R
变为:
XN P( x)
x1 ,
p( x1),
x2, L
p( x2 ),L
, ,
xi ,L
p( xi ),L
, ,
xN p( xN
)
N
N
且: p( xi )
ai
b
p( x)dx p( x)dx 1
a(i 1)
a
i 1
i 1
此信源合理!
二、连续信源的熵
2、相对熵
h( X )
均匀量化:线性量化 最优量化:使量化器的均方误差σe2最小或信
噪比SNR最小的量化。 (概率非均匀分布的最优量化算法)
4.3.1 均匀量化
量化器输入:x,对应实数值域空间为R;
量化器输出:y,对应实数值域空间为Rc;
对应取值范围[a0,an]
y=Q (x)
均匀量化:将区间[a0,an]分割为n个相等距离 且互不重叠的子区间[ai,ai+1],取每个小区间 的中点值作为量化值yi,即ai≤x≤ai+1时, yi=(ai+1+ai)/2
BD={ p( v j | u i ): ≤ D ; i=1,2, … ,n ; j=1,2,…m } p(v j | u i )为信道的传递概率。
3)离散信源的信息率失真函数
R(D) min {I (U;V )} p(v j |ui )BD
在允许信道 BD 中 , 寻求一个信道p( V |U ) , 使给定的信源经 过此信道后 , 互信息量I(U ;V )达到最小. 该最小互信息量称 为信息率失真函数R(D) , 简称率失真函数
ai
yi1 yi ,i 1,2,....,n 2
计算y1;
4)重复步骤(2)、(3),分别计算出a2,y2,a3,y3,….,直至最 后求得yn-1
5)检验yn是否为[an-1,an]的概率中心,
即
an an1
(x
yn1 )
p(x)dx
0
是否成立,或在允许的一定误差范
围内成立。
6)若步骤(5)满足,则过程结束,否则,重新选y0。
信息率失真是A/D转换、量化、频带压缩和数据压缩的 理论基础. 4.2.1 失真函数
1) 失真函数定义
信源 U {u1,u2 , ,un} 经过信源编码后输出 V {v1, v2 , , vm}
对于每一对( ui , vj ) , 指定一个非负函数 d ( ui , vj ) ≥ 0 i = 1 , 2 , … , n j = 1 , 2 , … , m 称 d ( xi , yj ) 为单个符号的失真函数. 表示信源发出符 号 xi , 接收端再现 yj 所引起的误差或失真. d ( xi , yj ) = 0 无失真 , d ( xi , yj ) > 0 有失真.
2 ( x yi ) p( x)dx 0
ai
ai1
xp( x)dx
yi
ai ai1
p( x)dx
ai
E[ x] ai1 p( x)dx
ai
yi最佳位置在ai和ai+1区间的概率中心。
Max-Livod迭代方法:
1)任取y0;
2)由
a1 a0
(x
y0
)
p(x)dx
0
,计算a1;
3)根据公式
表4-1 各种图像信号应用的码率
象素数 行 数
应用种类
/行
/帧
HDTV 普通电视
1920 720
1080 480
会议电视 352
288
电视电话 128
112
码率bps 压缩前 压缩后 1.18G 20~25M
167M
4~8M
36.5M 1.5~2M
5.2M
56k
4.1 连续信源的熵和互信息
一、连续消息的统计特性
2 e2
量化器的工作区域:
1. 正常量化区:
x [a0, an ] 量化器能得到正常量化。
2. 限幅区: x a0或x an 量化器处于限幅或过载工 作状态,产生较大失真。
3. 空载区: / 2 x ai / 2
(1)当x=ai时,量化器输出在两个量化级间往返跳动, 形成一个矩形输出,结果将产生点状噪声。
语音信号传输
语音(音频)信号的带宽 :20~20000HZ
实际应用音频范围:
电话质量:
300~3.4KHZ 电话公用网
调幅广播质量: 50 ~7 KHZ 有现场感的语音传输
高保真音频信号: 20 ~20 KHZ 高保真音响
图像信号传输 一路6MHz的普通电视信号数字化后,其数码率将
高达167Mbps,对储存器容量要求很大,占有的带宽将 达80MHz左右
4) 信息率失真函数R(D)物理意义 1°R(D)是信源给定的情况下, 在可容忍的失真度内再现
信源消息所必须获得的最小平均信息量 . 2°R(D)是反映给定信源可压缩的程度. 3°R(D)求出后 , 就与选择的试验信道无关 , 而只是信源
特性的参量 , 不同的信源 , 其R(D)是不同的 .
5) 信息率失真函数R(D)的计算 已给定信源概率P(X)和失真函数d ( xi , yj ) ,求信息率
1°使其压缩后的信息传输率小于信道容量;
2°保证压缩所引入的平均失真 D不超过预先给定
的允许失真度D;
3°在满足 D≤ D的前提下 , 使编码后的信息率尽
可能小.
不等式 D ≤ D 称为保真度准则
2) 试验信道
1°有失真的信源编码器视作有干扰的信道(假想信道) 2°当信源已知 (即B(U)已知)时 , 单个符号的失真度给 定, 选择一类假想信道 , 使得 D ≤ D ,这类假想信道称为 D 失真允许信道 , 或 D 失真允许试验信道. 记为
1.波形信源:
2.描述:
x(t) { xv(t1 ), xv(t2 ),L , xv(tn )}
在一个具体的时间点ti ,{x(ti)} 为一个取值 连续的随机变量,可用有限维概率密度函数族
描述:
p1x2
,
t2
M
pn
x1
,
x2
,L
, xn , t1 , t2 ,L
,tn
一、波形信源的特性
2.描述:
n
➢ 独立的随机过程:pn ( x1,L , xn , t1,L , tn ) p( xk , tk )
k 1
➢平稳随机过程:统计特性不随时间平移而变化的随机过程。
pn x1, x2,L , xn,t1,t2,L ,tn pn x1, x2,L , xn,t1 ,t2 ,L ,tn
2) 常用的失真函数
1°平方误差失真函数 d ( xi , yj ) = (xi - yj )2
2°绝对误差失真函数 d ( xi , yj ) = | xi - yj |
3°相对误差失真函数 d ( xi , yj ) = | xi - yj |/ | xi |
4°误码失真函数
0 d( xi , y j ) 1
i j 其他
失真函数1°,2°,3°用于连续信源 , 失真函数4°用
于离散信源 , 失真函数4°也称Hanmming失真函数.
3) 失真矩阵d
n × m 矩阵
d( x1 , y1 )
d
d ( xn , y1 )
d( x1 , ym )
d ( xn , ym )
4.2.2 平均失真 xi 和 yj 均为随机变量 , 所以d ( xi , yj ) 也
x( t ) lim 1
T
x( t )dt
T 2T T
二、连续信源的熵
X p(x)
R p(x)
p(x)dx 1
R
1、方法
变量X的概率分布与概率密度函数的关系为:
p( x) d P( x)
x
P( x) p( x)dx