信息论与编码 第四章

合集下载

信息论与编码2016(第4章)

信息论与编码2016(第4章)

§4.2 离散无记忆信道 对称DMC容量的计算

P的所有列都是第一列的一种置换,信 道是关于输出对称的
0 .8 0 .2 P 0 .5 0 .5 0 .2 0 .8
§4.2 离散无记忆信道
命题2 若DMC关于输出为对称的,则当输入分布等概时,输 出分布等概。 证明 此时{p(y|x),x=0~ K-1}与{p(0|x),x=0~ K-1}互为置换。 设q(x)=1/K,x∈{0, 1, …, K-1}。则
q( z ) p( y | z )
都取一个相同的值;对任何满足q(k)=0的k,I(X=k; Y)都 不大于此相同的值。 (2)此时此相同的值恰好就是信道容量C。
§4.2 离散无记忆信道
注解
如果对DMC信道没有任何简化,要计算最佳输 入分布并不容易。但是,通常使用的DMC是很简单 的(比如,以下的准对称信道和对称信道),最佳 输入分布很容易求出。
§4.2 ቤተ መጻሕፍቲ ባይዱ散无记忆信道
定理4.2.2(p91) (1)输入概率分布{x, q(x), x∈{0, 1, …, K-1}}是最佳输入分 布的充分必要条件为:对任何满足q(k)>0的k,
I ( X k ; Y ) p( y | k ) log K 1
y 0 z 0 J 1
p( y | k )
第四章:信道及其容量
§4.1 §4.2 §4.5 §4.6 §4.7 信道分类 离散无记忆信道 信道的组合 时间离散的无记忆连续信道 波形信道
5
§4.1 信道分类

所有信道都有一个输入集A,一个输出集B以及 两者之间的联系,如条件概率P(y│x),x∈A, y∈B。这些参量可用来规定一条信道。

信息论与编码 第四章

信息论与编码 第四章

4. 信息率失真函数 R(D)
R( D) = min I ( X ; Y )
PD '

说明:
n pij ∈pD ' m
对于离散无记忆信源, R(D)函数可写成
R(D) = min ∑∑ p(xi ) p( y j / xi ) log
i=1 y j )
例4-1-2

说明: Dk是第k个符号的平均失真。
4.1.3 信息率失真函数 R(D)

1. 信息率失真函数R(D)问题产生? 对于信息容量为 C 的信道传输信息传输率为 R的信源时,如果R>C,就必须对信源压缩, 使其压缩后信息传输率R 小于信道容量 C ,但 同时要保证压缩所引人的失真不超过预先规定 的限度,信息压缩问题就是对于给定的信源,在 满足平均失真

2. R(D)函数的下凸性和连续性
定理 R(D)在定义域内是下凸的 证明: 令

D = αD'+(1 − α)D' ' , 0 ≤α ≤1 R(D' ) = min I ( pij ) = I ( p'ij )
pij∈pD'
α
其中: p 是使I(Pij)达到极小值的 证D≤D’。
' ij
p ij ,且保
说明: (1) 由于xi和yj都是随机变量,所以失真函 数d(xi,yj)也是随机变量,限失真时的失真 值,只能用它的数学期望或统计平均值,因 此将失真函数的数学期望称为平均失真。


(2) p(xi,yj), i=1,2,…,n, j=1,2,…,m是联合分布; p(xi)是信源 符号概率分布; p(yj /xi),i= l, 2,…,n,j= l,2,…,m是转移概率 分布;d(xi,yj),i=1,2,…, n,j=1,2,… ,m是离散随机变量的 失真函数. (3)平均失真 D是对给定信源分布 p(xi) 在给定转移概率分布为 p(yj/xi)的信 道中传输时的失真的总体量度。

信息论与编码第三版 第4章

信息论与编码第三版 第4章
C max H ( X ) log 3
p( x)
信息论与编码
3. 根据平均互信息量I(X; Y)达到信道容量的充要条件式对C进行验证:
p ( y j ) p ( xi ) p ( y j / xi )
i 1 3
1 P 0 0
0 1/ 2 0
0 1/ 2 0
0 0 1/6
x1 x2 x3 x4 x5
1 1 1 1 1
y1 y2 y3 y4 y5
1 0 P 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
【解】 该信道的信道容量为:
C max I ( X ; Y ) max H ( X ) log 5
C max I ( X ; Y ) max H (Y )
p( x) p( x)
由于
p( y ) p( x) p( y / x),由于信道转移概率是确定的,求使H (
X
Y)
达到最大值的p ( x )的最佳分布就转化为求p ( y )的最佳分布。由极大离 散熵定理知,在p ( y )等概率分布时,H ( Y ) 达到最大,则
I ( x2 ; Y ) p ( y j / x2 ) log
j 1 2
p ( y j / x2 ) p( y j ) p ( y j / x3 ) p( y j ) p ( y j / x4 ) p( y j ) p ( y j / x5 ) p( y j )
1 log
1 1/ 2
log 2
I ( x3 ; Y ) p ( y j / x3 ) log
j 1 2
1 log

信息论与编码课件(第四章)

信息论与编码课件(第四章)
• 信源编码:把信源符号si映射为码字Wi的过程。 • 无失真编码:映射是一一对应、可逆的。
• 信源编码基本思想:尽可能缩短出现概率大的信 源符号的码字
电气信息工程学院
4.1 编码器及码的分类
• 码的分类 • 二元码:若码符号集X={0,1},所得码字为一
些二元序列,则称二元码。[在二元信道中传输]
• 允许错误概率越小,编码效率要求越高,则信源 序列长度N就必须越长。
• 实际情况下,要实现几乎无失真的等长编码,N 需要非常大。
电气信息工程学院
4.4 等长信源编码定理
• 例 设离散无记忆信源
S P(s)
s1 3
4
, ,
s2 1 4
• 信源熵 H (S)1lo4 g3lo4g 0.81 (b1istym ) bol • 自信息方差 4 4 3
• 编码的意义: • 通信的基本问题:如何高速、高质地传送信息。 • 高速和高质=鱼和熊掌。 • 编码讨论的问题: • (1)质量一定,如何提高信息传输速度(提高
编码效率或压缩比)---- 信源编码(本章讨论 问题) • (2)信道传输速度一定,如何提高信息传输质 量(抗干扰能力)----信道编码(下一章讨论)
• 当进行二元编码时,r=2,则:
等长编码时平均每个 信源符号所需的二元 码符号的理论极限
l H(S)
N
信源等 概分布
l log q N

• 一般情况下,信源符号并非等概率分布,且符号
之间有很强的关联性,故信源的熵H(S)<<logq。
电气信息工程学院
4.4 等长信源编码定理
• 从定理4.3可知,在等长编码中每个信源符号平 均所需的二元码符号可大大减少,从而使编码效 率提高。

信息论与编码(第四章PPT)

信息论与编码(第四章PPT)
q
变长编码
l p( si )li (码元 / 信源符号).
i 1
编码速率:编码后每个信源符号所能承载的的最大信 息量
R l log m(比特 / 码符号).
编码效率:
H(X ) H(X ) . R l log m
码的多余度(剩余度):
l H ( X ) / log m 1 . l
0级节点
0 1 1 2 2
1级节点
2 0 1 2
w1
0
0
w2 w3 w4 w8
w5
2
2级节点
1
0 1
3级节点
w6 w7
w9
w10
w11
26
4.3
r
变长编码
克拉夫不等式( L.G.Kraft, 1949) 长度为l1, l2,…,lr的m元 即时码存在的充分必要条件是:
li m 1 i 1
唯一可译码: 任意有限长的码元序列,只能被唯一地分割成一个一个的 码字,则称为唯一可译码,或单义可译码. 否则,就称为非 唯一可译码, 或非单义可译码. 例:码4是唯一可译码: 1000100 1000, 100 码3是非唯一可译码: 100010010, 00, 10, 0 或10, 0, 01, 00 或10, 0, 01, 00
麦克米伦定理(麦克米伦: B. McMillan, 1956). 长度为l1, l2,…,lr的m元唯一可译码存在的充分必要条件是:
li m 1 i 1 r
27
4.3
变长编码
例 对于码长序列1,2,2,2, 有 + + + = >1,
1 1 1 1 5 2 4 4 4 4 不存在这样码长序列的唯一可译码, 如码2,码3 1 1 1 1 15 对于码长序列1,2,3,4, 有 + + + = <1, 2 4 8 16 16 存在这样码长序列的唯一可译码! 码4与码5都是唯一可译码!码5是即时码,但码4不是即时码!

信息论与编码第四章课后习题答案

信息论与编码第四章课后习题答案

∫ =
− log λe−λx
∞ 0
+ log e
ln e−λx de−λx
∫ =
− log
λ
+
log
et
ln
t
0 1

log
e
dt
= −log λ + log e
= log e λ
(2)
h( X )
= −∫ p(x)log p(x)dx
∫ = − ∞ 1 λe−λ x log 1 λe−λ x dx
−∞ 2
2
∫ = − ∞ λe−λx log 1 λe−λxdx
0
2
∫ ∫ = − ∞ λe−λx log 1 dx − ∞ λe−λx log λe−λxdx
0
2
0
= log 2 + log e λ
= log 2e λ
注:(2)题直接借用了(1)的结论。
【4.3】设有一连续随机变量,其概率密度函数为:
sin
x
=
1 2
log
e∫
ln(1
+
sin
x)d
sin
x
+
1 2
log
e∫
ln(1

sin
x)d
sin
x
∫ ∫ ln(1+ sin x)d sin x
π
= (1 + sin
x) ln(1+ sin
x)
2 −π

2
1 + sin x d sin x 1 + sin x
= 2ln 2 − 2
∫ ln(1− sin x)d sin x

《信息论与编码》第四章习题解答


习题 4.4(3)图
(3)N 个相同 BSC 的积信道,求这时积信道容量 C N ,且证明 lim C N = ∞
N →∞
[证明] (1)见例 4.3.2 (2)首先因为
I ( X ; Y1 , Y2 ,L , YN ) = H ( X ) − H ( X | Y1 , Y2 LYN )
≤ H(X )
利用切比雪夫不等式
1 P[ Z N = 1| X = 0] = P Z ' N > | X = 0 2 1 = P Z ' N − p > − p | X = 0 2 1 ' ≤ P| Z N − p |> − p p 2 p(1 − p ) = 1 N ( − p )2 2
2
2
二元对称信道C2
4
退化信道容量为 C1 = 0 ,二元对称信道容量为 C2 = 1 − H (ε ) , 所以和信道的容量为
C = log 1 + 21− H ( ε )
达到信道容量的输入分布为
[
]
p ( X = 0) = 2 C1 − C 1 = 1 + 21− H (ε ) p ( X = 1) = p( X = 2)
所以满足定理 4.2.2 所规定的达到信道容量的充要条件,信道容量为
C=
(e)
3 bit/次 4
1 3 P = 0 1 3
1 3 1 3 0
0 1 3 1 3
1 3 1 3 1 3
信道是准对称信道,当输入分布为均匀分布时达到信道容量,即
p ( X = 0) = p( X = 1) = p ( X = 2) =
0 1
0 1

信息论与编码技术第四章课后习题答案

3
''
a − a | x| 2 e − D a e− a|x| , (6) 2 2
s
R( D) ≥ R L( D) = h(u ) − h( g )
2 1 = a log e − log (2eD) 2
当(5)式大于零时, R ( D ) = a log e − 4.8
2 1 log (2eD) 2
4.10
X ⎤ ⎡0 1 ⎤ 一二元信源 ⎡ ,每秒钟发出 2.66 个信源符号。将此信源的输出符号送入某二元 ⎢ p( x) ⎥ = ⎢0.5 0.5⎥ ⎣ ⎦ ⎣ ⎦
无噪无损信道中进行传输,而信道每秒钟只传递二个二元符号。 (1)试问信源能否在此信道中进行无失真的传输。 (2)若此信源失真度测定为汉明失真,问允许信源平均失真多大时,此信源就可以在信道中传输。 解:(1)此信源的熵 H(s)=1 (比特/符号) 所以信源输出的信息传输率为 Rt=2.66 (比特/秒) 将此信源输出符号送入二元无噪无损信道进行传输,此信道每秒钟只传送两个二元符号。 此信道的最大信息传输速率:Ct=2 比特/秒 因为 Rt>Ct 根据信道编码定理, 不论进行任何编码此信源不可能在此信道中实现无错误地传输, 所以信源在此 信道中传输会引起错误和失真。 (2)若设此信源的失真度为汉明失真。因为是二元信源,输入是等概率分布,所以信源的信息率 失真函数 R(D)=1-H(D) 若当 Ct>=Rt(D) 则此信源在此信道中传输时不会引起错误, 也就是不会因信道而增加信源新的失真。 总的信源的失 真是信源压缩编码所造成的允许失真 D 所以有 2=2.66*[1-H(D)] 2.66H(D)=0.66 H(D) ≈ 0.2481 故 D ≈ 0.0415 允许信源平均失真 D ≈ 0.0415 时,此信源就可以在此信道中传输。 比特/信源符号 比特/秒 Rt(D)=2.66*R(D)

(信息论、编码及应用)第4章连续信源与连续信道

应用
连续信源的编码定理是信息论中最重 要的定理之一,它为信源编码提供了 理论依据和指导,广泛应用于数据压 缩、图像处理等领域。
02
连续信道
定义与特性
定义
连续信道是一种能够传输连续信号的通信通道,例如音频、 视频信号等。
特性
连续信道具有带宽限制、噪声干扰、信号衰减等特性,这些 特性会影响信号传输的质量和可靠性。
利用统计学习方法,如自适应滤 波、神经网络等,对信源和信道 进行学习和优化,实现动态匹配。
编码技术
采用适当的编码技术,如差分编 码、增量编码等,对信源进行编 码,使其更适应信道的传输特性。
匹配的优化策略
01
02
03
能效优先
在保证信息传输质量的前 提下,优先考虑能效,通 过优化信源和信道的参数, 降低能耗。
例如,在移动通信网络中,语音信号通常采用码分多址(CDMA)或长期演进(LTE) 等技术进行传输。这些技术能够提供较高的数据传输速率和较低的误码率,从而保 证语音信号的清晰度和可懂度。
图像信号传
图像信号传输是连续信源与连续信道的另一个重要应用领域。在电视广播、视频会议和在线教育等应用中,图像信号需要通 过连续信道进行传输。由于图像信号的数据量较大,因此需要采用高效的压缩编码技术来减小传输数据量,同时还需要保证 图像质量。
输速率,同时保证信息的可靠传输。
03
匹配理论的发展历程
随着信息论的不断发展,匹配理论也在不断完善,从早期的经典匹配理
论到现代的统计匹配理论,为连续信源与连续信道的匹配提供了更精确
的指导。
匹配的实现方法
参数调整
根据信源和信道的特性,调整相 关参数,如信源的压缩比、信道 的调制方式等,以实现匹配。

《信息论与编码》PPT第四章

→ →

L

L

2)误差准则:
→ → e( f , g ) p ε 即P g f (uL ) ≠ uL p ε差准则: E [e ( f , g )] p ε 即E P g f (u ) ≠ u p ε ,
四、 密码 它是研究信息与通信系统在传输最安全的指标下, 系统中的信源和信宿,在什么样条件下能实现统计匹 配,即最优的加、解密密码存在; 反之,又在什么样条件下不能实现统计匹配,即 最优的加、解密密码不存在。
定理: 设掌握密钥的信宿V,它对应的系统传送的互信息 R=I(U,V,)不掌握密钥的信宿V’,它对应的系统传 送的互信息R’=I(U,V’),信源的信息熵为H(U)。 则:掌握密钥的信宿V,通过最优化的加、解密码 V (f2,g2),使得R=I(U,V)=H(U)。 反之,对不掌握密钥的信宿V’,几乎找不到最优化密钥 (f2,g2’)=(f2,g2),即R’=I(U,V’)→0. ——1949年,香农给出的密码学基本定理。 * 概率分布分析: P (ϕ ) = P (u L ).P (cm | sm ).P ( sm | cm ) ′ ′
定理:若系统要求达到的实际传输速率为R,无失真 信源的可用信息熵为H(U),则若R>H(U)时, 最有效的信源编、译码 ( f1 , g1 ) 存在,反之R< H(U)则不存在。——香农编码第一定理。 从另一角度来理解定理——用系统的概率分布函数
′ 由无失真准则,则 即 P ( sm | uL ) = P (vL | sm ) → → 所以 P(ϕ ) = p(uL ) f .g = p(uL ) 即系统与信源匹配。
•系统优化其物理实质: 就是要研究系统在某种优化指标下,上述两类 参数在满足什么条件时对应的编、译码存在; 又在什么条件下,对应的编、译码不存在。
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

D≤ D
称这种对于失真的限制条件为保真度准则。 保真度准则指出,给定的失真限定值D是平均失真度 D 的上限值。

D≤D
允许失真
保真度准则
在实际中,D是通信系统的重要指标之一,实质上它就是 针对具体应用而给出的保真度要求,为了达到这个要求, 就应该使所设计系统的平均失真度 不大于D。 D
23:16
D = E[d (xi , y j )] = ∑∑ p(xi ) p( y j / xi )d (xi , y j )
i1 , , i N = 1, , n N i = 1,2, , n
X = X1 X 2
N
XN
bj = y j1 ...y jN y j1 , , y jN ∈{y1 ym}
j1 , j 2 , , jN = 1 m
j =1,2, , mN
Y = Y1Y2
N
YN
23:16
15
将单符号离散无记忆信道{X P(Y/X) Y}的失真 函数的定义进行扩展,可得N次扩展的信源和 信宿符号序列 ai与bj之间的失真函数为
k =1
bj = y j1 ...y jN
d (ai , bj ) = ∑d (xik , y jk )
k =1
平均失真度 N )为 D(
− n N mN
D( N ) = ∑∑ p(ai ) p(b j / ai )d (ai , b j )
i =1 j =1
m
=∑
i1 =1
n
iN =1 j1 =1
i =1 j =1

n
m
13
平均失真度取决于如下几个因素 (1)信源的统计特性p(xi) ; (2)信道统计特性p(yj/xi); (3)失真函数d (xi , yj )。 这3个参量对平均失真度 D 都可产生影响。分析中可侧重于 某个参量的影响而暂时将其它参量固定不变。 在给定的信源X概率分布、失真函数d (xi , yj ) 条件下,通过 选择适当的信道,可使平均失真度 D 满足保真度准则D ≤ D
3
23:16
x
4
P(yi/xi)
Y
i=1,2,…,n; j=1,2, …,m
前面讨论的基本出发点是如何保证信息的无失真传输。
无失真信源编码定理 信道编码定理
许多实际应用并不要求完全无失真地恢复消息,而是 只要满足一定的条件,近似地恢复信源发出的消息。 什么是允许的失真?如何对失真进行描述?信源输出 信息率被压缩的最大程度是多少? 信息率失真理论回答了这些问题,其中香农的限失真 编码定理定量地描述了失真,研究了信息率与失真的 关系,论述了在限失真范围内的信源编码问题。
固定 p( xi ),调整 p( y j / xi ) 使 D ≤ D
23:16
定义 凡是能满足保真度准则 D ≤ D 的信道,称之为D失 真许可的试验信道(Test Channel)。 符合上述定义的D失真许可的试验信道可以有若干个, 它们能够组成一个集合,表示为
21
PD = { p( y j / xi ) : D ≤ D}
D = ∑∑ P( xi ) P( y j / xi )d ( xi , y j )
i =1 j =1
n
m

D ( N ) = ND
即:离散无记忆信源X的N次扩展信源XN=X1 X2 … XN 通过信道传输后的平均失真度 D (N ),是未扩展情况 的N倍。
23:16
18
Dk = D
D(N) = ND D(N) ≤ ND
0, i= j ⎧ d ( xi , y j ) = ⎨ ⎩大于零的其它数, i ≠ j
规定的合理性 (1)当i = j时,x和y的消息符号都是xi,说明收发之间没有失 真,所以失真函数dij = 0; (2)反之,当i ≠ j时,信宿收到的消息不是信源发出的符号xi, 而是xj,出现了失真,所以失真函数dij ≠0,而dij值的大 小可以表示这种失真的程度。 (3)失真函数d(x, y)能够表征接收消息y与发送消息x之间的 定量失真度。
d (a1 , bm N ) ⎤ d (a2 , bm N ) ⎥ ⎥ ⎥ ⎥ d (an N , bm N ) ⎥ ⎦
23:16
由信源和信道的无记忆性
p ( ai ) = Π p ( xik )
k =1 N N
ai = xi1
N
xiN
16
p (b j / ai ) = Π p ( y jk / xik )
d (ai , bj ) = d (xi1
N
xiN , y j1
y jN )
= d (xi1 , y j1 ) + + d (xiN , y jN ) = ∑d (xik , y jk )
k =1
d (a1 , b2 ) 对应的失真矩阵为 ⎡ d (a1 , b1 ) ⎢ d (a , b ) d (a , b ) 2 1 2 2 ⎢ [ D] = ⎢ ⎢ ⎢ d (a n N , b1 ) d (an N , b2 ) ⎣
23:16
x1 x2 xn
几类常用的失真函数
y1 y2 yn
⎡0 ⎢a [D ] = ⎢ ⎢ ... ⎢ ⎣a a 0 ... a ... ... ... ... a⎤ ⎥ a⎥ ... ⎥ ⎥ 0⎦
8
1
⎧0 i = j d ( xi , y j ) = ⎨ ⎩a i ≠ j
失真矩阵特点是:主对角线元素为0 其余元素都为a,表示在存在误差时,失真度为常数a
... d ( x1 , y m ) ⎤ ... d ( x 2 , y m ) ⎥ ⎥ ⎥ ... ... ⎥ ... d ( x n , y m ) ⎦
称为信道 X-P(Y/X)-Y 的失真矩阵。
23:16
7
失真函数的值可人为地规定 例如,若i=j时, yj=xi; i ≠ j时,yj=xj ≠ xi,则可规定
23:16
11
(1)失真函数d (xi , yj )是人为地规定的,给出其规定时应该 考虑解决问题的需要以及失真可能引起的损失、风险和主 观上感觉的差别等因素。 (2) d (xi , yj ) 是一个随机变量,它应该与 p(xiyj ) 有关,因 此有必要找出在统计平均意义上信道每传送一个符号所引 起失真的大小。
平均失真度
D = E[d (xi , y j )] = ∑∑ p( xi ) p( y j / xi )d (xi , y j )
i =1 j =1 − n m
物理含义是平均意义上信道每传送一个符号所引起的失真。 d (xi , yj ) 是一个随机量,但平均失真度为确定量。
23:16
12
定义 从平均意义上来说,信道每传送一个符号所引起的 平均失真,不能超过某一给定的限定值D,即要求
表示信源发出符号xi而经信道传输后再现成信道输 出符号集合中的yj所引起的误差或失真,称之为xi 和yj之间的失真函数。
⎡ d ( x1 , y1 ) d ( x1 , y 2 ) ⎢d ( x , y ) d ( x , y ) 2 1 2 2 ⎢ [ D] = ⎢ ... ... ⎢ ⎣d ( x n , y1 ) d ( x n , y 2 )
在保真度准则下求平均互信息的极小值问题。
23:16
14
N次扩展信道的情况
若信源X有n个不同的符号,则其N次扩展信源 XN=X1 X2 … XN有nN个不同的符号(用ai表示)。 若信宿Y有m个不同的符号,其N次扩展后接收符号集 YN=Y1Y2 … YN有m N个不同的符号(用bj表示)
ai = xi1 xiN xi1 , , xiN ∈{x1 xn}
23:16
a =1
⎧0 i = j d ( xi , y j ) = ⎨ ⎩1 i ≠ j
汉明失真矩阵
9
汉明失真函数
⎡0 ⎢1 [D] = ⎢ ⎢ ⎢ ⎣1
1 0 0
1⎤ ⎥ 1⎥ ⎥ ⎥ 0⎦
23:16
2
d ( xi , y j ) = ( y j − xi )
⎡ ( y1 − x1 ) 2 ⎢ ( y1 − x2 ) 2 [ D] = ⎢ ⎢ ⎢ 2 ⎢( y1 − xn ) ⎣ ( y2 − x1 ) 2 ( y2 − x2 ) 2 ( y2 − xn ) 2
23:16
1
第一章:概述 第二章:信源熵 第三章:信道容量
第四章:信息率失真函数
第五章:信源编码
23:16
2
§4.1 信息率失真函数 §4.2 离散信源的信息率失真函数 §4.3 连续信息的率失真函数 §4.4 保真度准则下的信源编码定理
23:16
§4.1 信息率失真函数 §4.1.1失真函数和平均失真度 §4.1.2 率失真函数定义 §4.1 .3 率失真函数性质

n
m
20
平均失真度取决于如下几个因素 (1)信源的统计特性p(xi) ; (2)信道统计特性p(yj/xi); (3)失真函数d (xi , yj )。 在给定的信源X概率分布、失真函数d (xi , yj ) 条件下,通过 选择适当的信道,可使平均失真度 D 满足保真度准则D ≤ D
在保真度准则下求平均互信息的极小值问题。
R (D ) =
p(y
min
j
/ x i )∈ P D
I ( X ; Y ) (比特/符号)
23:16
22
N次无记忆扩展信源和信道:
PD ( N ) = { p(b j / ai ) : D ( N ) ≤ ND}
RN ( D) =
→ → P ( b j / ai )∈PD ( N )
min
I ( X ;Y )
N次扩展信道的保真度准则
23:16
相关文档
最新文档