信息论与编码 第四章

合集下载

信息论与编码2016(第4章)

信息论与编码2016(第4章)

§4.2 离散无记忆信道 对称DMC容量的计算

P的所有列都是第一列的一种置换,信 道是关于输出对称的
0 .8 0 .2 P 0 .5 0 .5 0 .2 0 .8
§4.2 离散无记忆信道
命题2 若DMC关于输出为对称的,则当输入分布等概时,输 出分布等概。 证明 此时{p(y|x),x=0~ K-1}与{p(0|x),x=0~ K-1}互为置换。 设q(x)=1/K,x∈{0, 1, …, K-1}。则
q( z ) p( y | z )
都取一个相同的值;对任何满足q(k)=0的k,I(X=k; Y)都 不大于此相同的值。 (2)此时此相同的值恰好就是信道容量C。
§4.2 离散无记忆信道
注解
如果对DMC信道没有任何简化,要计算最佳输 入分布并不容易。但是,通常使用的DMC是很简单 的(比如,以下的准对称信道和对称信道),最佳 输入分布很容易求出。
§4.2 ቤተ መጻሕፍቲ ባይዱ散无记忆信道
定理4.2.2(p91) (1)输入概率分布{x, q(x), x∈{0, 1, …, K-1}}是最佳输入分 布的充分必要条件为:对任何满足q(k)>0的k,
I ( X k ; Y ) p( y | k ) log K 1
y 0 z 0 J 1
p( y | k )
第四章:信道及其容量
§4.1 §4.2 §4.5 §4.6 §4.7 信道分类 离散无记忆信道 信道的组合 时间离散的无记忆连续信道 波形信道
5
§4.1 信道分类

所有信道都有一个输入集A,一个输出集B以及 两者之间的联系,如条件概率P(y│x),x∈A, y∈B。这些参量可用来规定一条信道。

信息论与编码 第四章

信息论与编码 第四章

4. 信息率失真函数 R(D)
R( D) = min I ( X ; Y )
PD '

说明:
n pij ∈pD ' m
对于离散无记忆信源, R(D)函数可写成
R(D) = min ∑∑ p(xi ) p( y j / xi ) log
i=1 y j )
例4-1-2

说明: Dk是第k个符号的平均失真。
4.1.3 信息率失真函数 R(D)

1. 信息率失真函数R(D)问题产生? 对于信息容量为 C 的信道传输信息传输率为 R的信源时,如果R>C,就必须对信源压缩, 使其压缩后信息传输率R 小于信道容量 C ,但 同时要保证压缩所引人的失真不超过预先规定 的限度,信息压缩问题就是对于给定的信源,在 满足平均失真

2. R(D)函数的下凸性和连续性
定理 R(D)在定义域内是下凸的 证明: 令

D = αD'+(1 − α)D' ' , 0 ≤α ≤1 R(D' ) = min I ( pij ) = I ( p'ij )
pij∈pD'
α
其中: p 是使I(Pij)达到极小值的 证D≤D’。
' ij
p ij ,且保
说明: (1) 由于xi和yj都是随机变量,所以失真函 数d(xi,yj)也是随机变量,限失真时的失真 值,只能用它的数学期望或统计平均值,因 此将失真函数的数学期望称为平均失真。


(2) p(xi,yj), i=1,2,…,n, j=1,2,…,m是联合分布; p(xi)是信源 符号概率分布; p(yj /xi),i= l, 2,…,n,j= l,2,…,m是转移概率 分布;d(xi,yj),i=1,2,…, n,j=1,2,… ,m是离散随机变量的 失真函数. (3)平均失真 D是对给定信源分布 p(xi) 在给定转移概率分布为 p(yj/xi)的信 道中传输时的失真的总体量度。

信息论与编码第三版 第4章

信息论与编码第三版 第4章
C max H ( X ) log 3
p( x)
信息论与编码
3. 根据平均互信息量I(X; Y)达到信道容量的充要条件式对C进行验证:
p ( y j ) p ( xi ) p ( y j / xi )
i 1 3
1 P 0 0
0 1/ 2 0
0 1/ 2 0
0 0 1/6
x1 x2 x3 x4 x5
1 1 1 1 1
y1 y2 y3 y4 y5
1 0 P 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
【解】 该信道的信道容量为:
C max I ( X ; Y ) max H ( X ) log 5
C max I ( X ; Y ) max H (Y )
p( x) p( x)
由于
p( y ) p( x) p( y / x),由于信道转移概率是确定的,求使H (
X
Y)
达到最大值的p ( x )的最佳分布就转化为求p ( y )的最佳分布。由极大离 散熵定理知,在p ( y )等概率分布时,H ( Y ) 达到最大,则
I ( x2 ; Y ) p ( y j / x2 ) log
j 1 2
p ( y j / x2 ) p( y j ) p ( y j / x3 ) p( y j ) p ( y j / x4 ) p( y j ) p ( y j / x5 ) p( y j )
1 log
1 1/ 2
log 2
I ( x3 ; Y ) p ( y j / x3 ) log
j 1 2
1 log

信息论与编码课件(第四章)

信息论与编码课件(第四章)
• 信源编码:把信源符号si映射为码字Wi的过程。 • 无失真编码:映射是一一对应、可逆的。
• 信源编码基本思想:尽可能缩短出现概率大的信 源符号的码字
电气信息工程学院
4.1 编码器及码的分类
• 码的分类 • 二元码:若码符号集X={0,1},所得码字为一
些二元序列,则称二元码。[在二元信道中传输]
• 允许错误概率越小,编码效率要求越高,则信源 序列长度N就必须越长。
• 实际情况下,要实现几乎无失真的等长编码,N 需要非常大。
电气信息工程学院
4.4 等长信源编码定理
• 例 设离散无记忆信源
S P(s)
s1 3
4
, ,
s2 1 4
• 信源熵 H (S)1lo4 g3lo4g 0.81 (b1istym ) bol • 自信息方差 4 4 3
• 编码的意义: • 通信的基本问题:如何高速、高质地传送信息。 • 高速和高质=鱼和熊掌。 • 编码讨论的问题: • (1)质量一定,如何提高信息传输速度(提高
编码效率或压缩比)---- 信源编码(本章讨论 问题) • (2)信道传输速度一定,如何提高信息传输质 量(抗干扰能力)----信道编码(下一章讨论)
• 当进行二元编码时,r=2,则:
等长编码时平均每个 信源符号所需的二元 码符号的理论极限
l H(S)
N
信源等 概分布
l log q N

• 一般情况下,信源符号并非等概率分布,且符号
之间有很强的关联性,故信源的熵H(S)<<logq。
电气信息工程学院
4.4 等长信源编码定理
• 从定理4.3可知,在等长编码中每个信源符号平 均所需的二元码符号可大大减少,从而使编码效 率提高。

信息论与编码(第四章PPT)

信息论与编码(第四章PPT)
q
变长编码
l p( si )li (码元 / 信源符号).
i 1
编码速率:编码后每个信源符号所能承载的的最大信 息量
R l log m(比特 / 码符号).
编码效率:
H(X ) H(X ) . R l log m
码的多余度(剩余度):
l H ( X ) / log m 1 . l
0级节点
0 1 1 2 2
1级节点
2 0 1 2
w1
0
0
w2 w3 w4 w8
w5
2
2级节点
1
0 1
3级节点
w6 w7
w9
w10
w11
26
4.3
r
变长编码
克拉夫不等式( L.G.Kraft, 1949) 长度为l1, l2,…,lr的m元 即时码存在的充分必要条件是:
li m 1 i 1
唯一可译码: 任意有限长的码元序列,只能被唯一地分割成一个一个的 码字,则称为唯一可译码,或单义可译码. 否则,就称为非 唯一可译码, 或非单义可译码. 例:码4是唯一可译码: 1000100 1000, 100 码3是非唯一可译码: 100010010, 00, 10, 0 或10, 0, 01, 00 或10, 0, 01, 00
麦克米伦定理(麦克米伦: B. McMillan, 1956). 长度为l1, l2,…,lr的m元唯一可译码存在的充分必要条件是:
li m 1 i 1 r
27
4.3
变长编码
例 对于码长序列1,2,2,2, 有 + + + = >1,
1 1 1 1 5 2 4 4 4 4 不存在这样码长序列的唯一可译码, 如码2,码3 1 1 1 1 15 对于码长序列1,2,3,4, 有 + + + = <1, 2 4 8 16 16 存在这样码长序列的唯一可译码! 码4与码5都是唯一可译码!码5是即时码,但码4不是即时码!

信息论与编码第四章课后习题答案

信息论与编码第四章课后习题答案

∫ =
− log λe−λx
∞ 0
+ log e
ln e−λx de−λx
∫ =
− log
λ
+
log
et
ln
t
0 1

log
e
dt
= −log λ + log e
= log e λ
(2)
h( X )
= −∫ p(x)log p(x)dx
∫ = − ∞ 1 λe−λ x log 1 λe−λ x dx
−∞ 2
2
∫ = − ∞ λe−λx log 1 λe−λxdx
0
2
∫ ∫ = − ∞ λe−λx log 1 dx − ∞ λe−λx log λe−λxdx
0
2
0
= log 2 + log e λ
= log 2e λ
注:(2)题直接借用了(1)的结论。
【4.3】设有一连续随机变量,其概率密度函数为:
sin
x
=
1 2
log
e∫
ln(1
+
sin
x)d
sin
x
+
1 2
log
e∫
ln(1

sin
x)d
sin
x
∫ ∫ ln(1+ sin x)d sin x
π
= (1 + sin
x) ln(1+ sin
x)
2 −π

2
1 + sin x d sin x 1 + sin x
= 2ln 2 − 2
∫ ln(1− sin x)d sin x

《信息论与编码》第四章习题解答

《信息论与编码》第四章习题解答

习题 4.4(3)图
(3)N 个相同 BSC 的积信道,求这时积信道容量 C N ,且证明 lim C N = ∞
N →∞
[证明] (1)见例 4.3.2 (2)首先因为
I ( X ; Y1 , Y2 ,L , YN ) = H ( X ) − H ( X | Y1 , Y2 LYN )
≤ H(X )
利用切比雪夫不等式
1 P[ Z N = 1| X = 0] = P Z ' N > | X = 0 2 1 = P Z ' N − p > − p | X = 0 2 1 ' ≤ P| Z N − p |> − p p 2 p(1 − p ) = 1 N ( − p )2 2
2
2
二元对称信道C2
4
退化信道容量为 C1 = 0 ,二元对称信道容量为 C2 = 1 − H (ε ) , 所以和信道的容量为
C = log 1 + 21− H ( ε )
达到信道容量的输入分布为
[
]
p ( X = 0) = 2 C1 − C 1 = 1 + 21− H (ε ) p ( X = 1) = p( X = 2)
所以满足定理 4.2.2 所规定的达到信道容量的充要条件,信道容量为
C=
(e)
3 bit/次 4
1 3 P = 0 1 3
1 3 1 3 0
0 1 3 1 3
1 3 1 3 1 3
信道是准对称信道,当输入分布为均匀分布时达到信道容量,即
p ( X = 0) = p( X = 1) = p ( X = 2) =
0 1
0 1

信息论与编码技术第四章课后习题答案

信息论与编码技术第四章课后习题答案
3
''
a − a | x| 2 e − D a e− a|x| , (6) 2 2
s
R( D) ≥ R L( D) = h(u ) − h( g )
2 1 = a log e − log (2eD) 2
当(5)式大于零时, R ( D ) = a log e − 4.8
2 1 log (2eD) 2
4.10
X ⎤ ⎡0 1 ⎤ 一二元信源 ⎡ ,每秒钟发出 2.66 个信源符号。将此信源的输出符号送入某二元 ⎢ p( x) ⎥ = ⎢0.5 0.5⎥ ⎣ ⎦ ⎣ ⎦
无噪无损信道中进行传输,而信道每秒钟只传递二个二元符号。 (1)试问信源能否在此信道中进行无失真的传输。 (2)若此信源失真度测定为汉明失真,问允许信源平均失真多大时,此信源就可以在信道中传输。 解:(1)此信源的熵 H(s)=1 (比特/符号) 所以信源输出的信息传输率为 Rt=2.66 (比特/秒) 将此信源输出符号送入二元无噪无损信道进行传输,此信道每秒钟只传送两个二元符号。 此信道的最大信息传输速率:Ct=2 比特/秒 因为 Rt>Ct 根据信道编码定理, 不论进行任何编码此信源不可能在此信道中实现无错误地传输, 所以信源在此 信道中传输会引起错误和失真。 (2)若设此信源的失真度为汉明失真。因为是二元信源,输入是等概率分布,所以信源的信息率 失真函数 R(D)=1-H(D) 若当 Ct>=Rt(D) 则此信源在此信道中传输时不会引起错误, 也就是不会因信道而增加信源新的失真。 总的信源的失 真是信源压缩编码所造成的允许失真 D 所以有 2=2.66*[1-H(D)] 2.66H(D)=0.66 H(D) ≈ 0.2481 故 D ≈ 0.0415 允许信源平均失真 D ≈ 0.0415 时,此信源就可以在此信道中传输。 比特/信源符号 比特/秒 Rt(D)=2.66*R(D)
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

D≤ D
称这种对于失真的限制条件为保真度准则。 保真度准则指出,给定的失真限定值D是平均失真度 D 的上限值。

D≤D
允许失真
保真度准则
在实际中,D是通信系统的重要指标之一,实质上它就是 针对具体应用而给出的保真度要求,为了达到这个要求, 就应该使所设计系统的平均失真度 不大于D。 D
23:16
D = E[d (xi , y j )] = ∑∑ p(xi ) p( y j / xi )d (xi , y j )
i1 , , i N = 1, , n N i = 1,2, , n
X = X1 X 2
N
XN
bj = y j1 ...y jN y j1 , , y jN ∈{y1 ym}
j1 , j 2 , , jN = 1 m
j =1,2, , mN
Y = Y1Y2
N
YN
23:16
15
将单符号离散无记忆信道{X P(Y/X) Y}的失真 函数的定义进行扩展,可得N次扩展的信源和 信宿符号序列 ai与bj之间的失真函数为
k =1
bj = y j1 ...y jN
d (ai , bj ) = ∑d (xik , y jk )
k =1
平均失真度 N )为 D(
− n N mN
D( N ) = ∑∑ p(ai ) p(b j / ai )d (ai , b j )
i =1 j =1
m
=∑
i1 =1
n
iN =1 j1 =1
i =1 j =1

n
m
13
平均失真度取决于如下几个因素 (1)信源的统计特性p(xi) ; (2)信道统计特性p(yj/xi); (3)失真函数d (xi , yj )。 这3个参量对平均失真度 D 都可产生影响。分析中可侧重于 某个参量的影响而暂时将其它参量固定不变。 在给定的信源X概率分布、失真函数d (xi , yj ) 条件下,通过 选择适当的信道,可使平均失真度 D 满足保真度准则D ≤ D
3
23:16
x
4
P(yi/xi)
Y
i=1,2,…,n; j=1,2, …,m
前面讨论的基本出发点是如何保证信息的无失真传输。
无失真信源编码定理 信道编码定理
许多实际应用并不要求完全无失真地恢复消息,而是 只要满足一定的条件,近似地恢复信源发出的消息。 什么是允许的失真?如何对失真进行描述?信源输出 信息率被压缩的最大程度是多少? 信息率失真理论回答了这些问题,其中香农的限失真 编码定理定量地描述了失真,研究了信息率与失真的 关系,论述了在限失真范围内的信源编码问题。
固定 p( xi ),调整 p( y j / xi ) 使 D ≤ D
23:16
定义 凡是能满足保真度准则 D ≤ D 的信道,称之为D失 真许可的试验信道(Test Channel)。 符合上述定义的D失真许可的试验信道可以有若干个, 它们能够组成一个集合,表示为
21
PD = { p( y j / xi ) : D ≤ D}
D = ∑∑ P( xi ) P( y j / xi )d ( xi , y j )
i =1 j =1
n
m

D ( N ) = ND
即:离散无记忆信源X的N次扩展信源XN=X1 X2 … XN 通过信道传输后的平均失真度 D (N ),是未扩展情况 的N倍。
23:16
18
Dk = D
D(N) = ND D(N) ≤ ND
0, i= j ⎧ d ( xi , y j ) = ⎨ ⎩大于零的其它数, i ≠ j
规定的合理性 (1)当i = j时,x和y的消息符号都是xi,说明收发之间没有失 真,所以失真函数dij = 0; (2)反之,当i ≠ j时,信宿收到的消息不是信源发出的符号xi, 而是xj,出现了失真,所以失真函数dij ≠0,而dij值的大 小可以表示这种失真的程度。 (3)失真函数d(x, y)能够表征接收消息y与发送消息x之间的 定量失真度。
d (a1 , bm N ) ⎤ d (a2 , bm N ) ⎥ ⎥ ⎥ ⎥ d (an N , bm N ) ⎥ ⎦
23:16
由信源和信道的无记忆性
p ( ai ) = Π p ( xik )
k =1 N N
ai = xi1
N
xiN
16
p (b j / ai ) = Π p ( y jk / xik )
d (ai , bj ) = d (xi1
N
xiN , y j1
y jN )
= d (xi1 , y j1 ) + + d (xiN , y jN ) = ∑d (xik , y jk )
k =1
d (a1 , b2 ) 对应的失真矩阵为 ⎡ d (a1 , b1 ) ⎢ d (a , b ) d (a , b ) 2 1 2 2 ⎢ [ D] = ⎢ ⎢ ⎢ d (a n N , b1 ) d (an N , b2 ) ⎣
23:16
x1 x2 xn
几类常用的失真函数
y1 y2 yn
⎡0 ⎢a [D ] = ⎢ ⎢ ... ⎢ ⎣a a 0 ... a ... ... ... ... a⎤ ⎥ a⎥ ... ⎥ ⎥ 0⎦
8
1
⎧0 i = j d ( xi , y j ) = ⎨ ⎩a i ≠ j
失真矩阵特点是:主对角线元素为0 其余元素都为a,表示在存在误差时,失真度为常数a
... d ( x1 , y m ) ⎤ ... d ( x 2 , y m ) ⎥ ⎥ ⎥ ... ... ⎥ ... d ( x n , y m ) ⎦
称为信道 X-P(Y/X)-Y 的失真矩阵。
23:16
7
失真函数的值可人为地规定 例如,若i=j时, yj=xi; i ≠ j时,yj=xj ≠ xi,则可规定
23:16
11
(1)失真函数d (xi , yj )是人为地规定的,给出其规定时应该 考虑解决问题的需要以及失真可能引起的损失、风险和主 观上感觉的差别等因素。 (2) d (xi , yj ) 是一个随机变量,它应该与 p(xiyj ) 有关,因 此有必要找出在统计平均意义上信道每传送一个符号所引 起失真的大小。
平均失真度
D = E[d (xi , y j )] = ∑∑ p( xi ) p( y j / xi )d (xi , y j )
i =1 j =1 − n m
物理含义是平均意义上信道每传送一个符号所引起的失真。 d (xi , yj ) 是一个随机量,但平均失真度为确定量。
23:16
12
定义 从平均意义上来说,信道每传送一个符号所引起的 平均失真,不能超过某一给定的限定值D,即要求
表示信源发出符号xi而经信道传输后再现成信道输 出符号集合中的yj所引起的误差或失真,称之为xi 和yj之间的失真函数。
⎡ d ( x1 , y1 ) d ( x1 , y 2 ) ⎢d ( x , y ) d ( x , y ) 2 1 2 2 ⎢ [ D] = ⎢ ... ... ⎢ ⎣d ( x n , y1 ) d ( x n , y 2 )
在保真度准则下求平均互信息的极小值问题。
23:16
14
N次扩展信道的情况
若信源X有n个不同的符号,则其N次扩展信源 XN=X1 X2 … XN有nN个不同的符号(用ai表示)。 若信宿Y有m个不同的符号,其N次扩展后接收符号集 YN=Y1Y2 … YN有m N个不同的符号(用bj表示)
ai = xi1 xiN xi1 , , xiN ∈{x1 xn}
23:16
a =1
⎧0 i = j d ( xi , y j ) = ⎨ ⎩1 i ≠ j
汉明失真矩阵
9
汉明失真函数
⎡0 ⎢1 [D] = ⎢ ⎢ ⎢ ⎣1
1 0 0
1⎤ ⎥ 1⎥ ⎥ ⎥ 0⎦
23:16
2
d ( xi , y j ) = ( y j − xi )
⎡ ( y1 − x1 ) 2 ⎢ ( y1 − x2 ) 2 [ D] = ⎢ ⎢ ⎢ 2 ⎢( y1 − xn ) ⎣ ( y2 − x1 ) 2 ( y2 − x2 ) 2 ( y2 − xn ) 2
23:16
1
第一章:概述 第二章:信源熵 第三章:信道容量
第四章:信息率失真函数
第五章:信源编码
23:16
2
§4.1 信息率失真函数 §4.2 离散信源的信息率失真函数 §4.3 连续信息的率失真函数 §4.4 保真度准则下的信源编码定理
23:16
§4.1 信息率失真函数 §4.1.1失真函数和平均失真度 §4.1.2 率失真函数定义 §4.1 .3 率失真函数性质

n
m
20
平均失真度取决于如下几个因素 (1)信源的统计特性p(xi) ; (2)信道统计特性p(yj/xi); (3)失真函数d (xi , yj )。 在给定的信源X概率分布、失真函数d (xi , yj ) 条件下,通过 选择适当的信道,可使平均失真度 D 满足保真度准则D ≤ D
在保真度准则下求平均互信息的极小值问题。
R (D ) =
p(y
min
j
/ x i )∈ P D
I ( X ; Y ) (比特/符号)
23:16
22
N次无记忆扩展信源和信道:
PD ( N ) = { p(b j / ai ) : D ( N ) ≤ ND}
RN ( D) =
→ → P ( b j / ai )∈PD ( N )
min
I ( X ;Y )
N次扩展信道的保真度准则
23:16
相关文档
最新文档