信息论与编码2016(第4章)

合集下载

信息论与编码第三版 第4章

信息论与编码第三版 第4章
C max H ( X ) log 3
p( x)
信息论与编码
3. 根据平均互信息量I(X; Y)达到信道容量的充要条件式对C进行验证:
p ( y j ) p ( xi ) p ( y j / xi )
i 1 3
1 P 0 0
0 1/ 2 0
0 1/ 2 0
0 0 1/6
x1 x2 x3 x4 x5
1 1 1 1 1
y1 y2 y3 y4 y5
1 0 P 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
【解】 该信道的信道容量为:
C max I ( X ; Y ) max H ( X ) log 5
C max I ( X ; Y ) max H (Y )
p( x) p( x)
由于
p( y ) p( x) p( y / x),由于信道转移概率是确定的,求使H (
X
Y)
达到最大值的p ( x )的最佳分布就转化为求p ( y )的最佳分布。由极大离 散熵定理知,在p ( y )等概率分布时,H ( Y ) 达到最大,则
I ( x2 ; Y ) p ( y j / x2 ) log
j 1 2
p ( y j / x2 ) p( y j ) p ( y j / x3 ) p( y j ) p ( y j / x4 ) p( y j ) p ( y j / x5 ) p( y j )
1 log
1 1/ 2
log 2
I ( x3 ; Y ) p ( y j / x3 ) log
j 1 2
1 log

信息论与编码_PPT_第4章信息率失真函数

信息论与编码_PPT_第4章信息率失真函数
R(D) 0。
R(D)是关于D的下凸函数,因而也是关于D的连
续函数。
R(D)是关于D的严格递减函数。
信息论基础
25
由以上三点结论,对一般R(D)曲线的形态可以画出来
R(D) R(D)
H(X)
R(D)
0
D
Dmax
D
0
Dmax
D
信息率失真曲线
信息论基础
26
4.2 离散信源和连续信源的R(D)计算
信息论基础
23
2、R(D)函数的下凸性和连续性
3、R(D)函数的单调递减性
容许的失真度越大,所要求的信息率越小。反之 亦然。
信息论基础
24
综上所述,可以得出如下结论:
R(D)是非负的实数,即R(D) 0。其定义域为0~
Dmax , 其 值 为 0 ~ H(X) 。 当 D>Dmax 时 ,
R( Dmin ) R(0) H ( X )
对于连续信源
R( Dmin ) R(0) H c ( x)
信息论基础
16
(2) Dmax和R(Dmax)
选择所有满足R(D)=0中D的最小值,定义为R(D)定义域 的上限Dmax,即
Dmax min D
R ( D ) 0
因此可以得到R(D)的定义域为
某些特殊情况下R(D)的表示式为: (1)当d(x,y)=(x-y)2,
p( x) 1
x2 2 e 2
2
时,
R( D) log

D
27
信息论基础
(2)当d(x,y)=|x-y|,p ( x )


2
e
x

信息论与编码第4章无失真信源编码

信息论与编码第4章无失真信源编码

0
2
1
w1 0 1 2 0 1 2
01
2w2
w3 w4
0
1
2
w5
w6 w7 w8
w9 w10 w11
0级节点 1级节点 2级节点
3级节点
25
4.3 变长编码
码树编码方法
(1)树根编码的起点; (2)每一个中间节点树枝的个数编码的进制数; (3)树的节点编码或编码的一部分; (4)树的终止节点(端点、树叶)码; (5)树的节数码长; (6)码位于多级节点变长码; (7)码位于同一级节点码等长码;
设离散无记忆信源X的熵为H(X), 若对长为N的信源符号序 列进行等长编码,码长为L , 码元符号个数为m. 则对任意的
>0, >0, 只要
L log m H ( 率小于。
反之,当
L log m H ( X ) 2
N
时, 则译码差错概率一定是有限值(不可能实现无失真编 码), 而当N足够大时, 译码错误概率近似等于1。
概率分布 0.5 0.25 0.125 0.125
码1:C1 码2:C2 码3:C3
00
0
0
码4:C4 1
码5:C5 1
01
11
10
10
01
10
00
00
100
001
11
11
01
1000
0001
等长码 非唯一 非 唯 唯一可译 及时码 可译 一可译
11
4.1 无失真信源编码的概念
关系 即时码一定是唯一可译码 唯一可译码一定是非奇异码 定长的非奇异码一定是唯一可译码 非定长的非奇异码不一定是唯一可译码
一般地,平均码长: L 3.322 (N ) N

信息论与编码第四章课后习题答案

信息论与编码第四章课后习题答案

∫ =
− log λe−λx
∞ 0
+ log e
ln e−λx de−λx
∫ =
− log
λ
+
log
et
ln
t
0 1

log
e
dt
= −log λ + log e
= log e λ
(2)
h( X )
= −∫ p(x)log p(x)dx
∫ = − ∞ 1 λe−λ x log 1 λe−λ x dx
−∞ 2
2
∫ = − ∞ λe−λx log 1 λe−λxdx
0
2
∫ ∫ = − ∞ λe−λx log 1 dx − ∞ λe−λx log λe−λxdx
0
2
0
= log 2 + log e λ
= log 2e λ
注:(2)题直接借用了(1)的结论。
【4.3】设有一连续随机变量,其概率密度函数为:
sin
x
=
1 2
log
e∫
ln(1
+
sin
x)d
sin
x
+
1 2
log
e∫
ln(1

sin
x)d
sin
x
∫ ∫ ln(1+ sin x)d sin x
π
= (1 + sin
x) ln(1+ sin
x)
2 −π

2
1 + sin x d sin x 1 + sin x
= 2ln 2 − 2
∫ ln(1− sin x)d sin x

信息论与编码技术Chap4 思考题与习题 khdaw

信息论与编码技术Chap4 思考题与习题 khdaw

, λ 满足
∑D
k =1
K
k
=D
(a) m
(b ) m
≥ ∑ h( x i ) − ∑ h( x i | x ˆi ) i =1 i =1
m
m
m
(c) m
i =1
(d ) m
其中 D = E ( X − ˆ i X

真函数定义,(d)高斯变量的率失真函数。式中有两个不等号,其中 (b)
当q( x | x ˆ i) = ∏ q( x i | x ˆ i)时,等号成立。

D =λ
i
'
D m
D 2 ≤ min{σ i } 时 i m
这表示当失真分配给各分量时,最佳分配方案是每个分量等失真。但这仅当 才可行,当某个分量的
σ
2
i
小于
D 时 就 不 行 了 , 必 须 利 用 K-T 条 件 来 解 , 即 选 λ 使 m
2 ⎧ 1 1 ∂J ⎪ 0, D i < σ i =− +λ⎨ 2 2 Di ∂D ⎪ ⎩≤ 0, D i ≥ σ i
⎡1 0 ⎤ ⎡0 1⎤ ⎡α 1 − α ⎤ ⎥ ⎢ ⎥ ⎢ ⎥ 0 ≤α ≤1 [ P(υ j | u i )] = ⎢ ⎢1 0 ⎥ , ⎢0 1⎥ 或 ⎢α 1 − α ⎥ , ⎢ ⎣1 0 ⎥ ⎦ ⎢ ⎣0 1⎥ ⎦ ⎢ ⎣α 1 − α ⎥ ⎦
w. kh d
aw .
co m
3
1 [1 + 1 + 1] = 1 3
所以
无噪无损信道中进行传输,而信道每秒钟只传递二个二元符号。 (1)试问信源能否在此信道中进行无失真的传输。 解:(1)此信源的熵 H(s)=1 (比特/符号)

《信息论与编码》PPT第四章

《信息论与编码》PPT第四章
→ →

L

L

2)误差准则:
→ → e( f , g ) p ε 即P g f (uL ) ≠ uL p ε差准则: E [e ( f , g )] p ε 即E P g f (u ) ≠ u p ε ,
四、 密码 它是研究信息与通信系统在传输最安全的指标下, 系统中的信源和信宿,在什么样条件下能实现统计匹 配,即最优的加、解密密码存在; 反之,又在什么样条件下不能实现统计匹配,即 最优的加、解密密码不存在。
定理: 设掌握密钥的信宿V,它对应的系统传送的互信息 R=I(U,V,)不掌握密钥的信宿V’,它对应的系统传 送的互信息R’=I(U,V’),信源的信息熵为H(U)。 则:掌握密钥的信宿V,通过最优化的加、解密码 V (f2,g2),使得R=I(U,V)=H(U)。 反之,对不掌握密钥的信宿V’,几乎找不到最优化密钥 (f2,g2’)=(f2,g2),即R’=I(U,V’)→0. ——1949年,香农给出的密码学基本定理。 * 概率分布分析: P (ϕ ) = P (u L ).P (cm | sm ).P ( sm | cm ) ′ ′
定理:若系统要求达到的实际传输速率为R,无失真 信源的可用信息熵为H(U),则若R>H(U)时, 最有效的信源编、译码 ( f1 , g1 ) 存在,反之R< H(U)则不存在。——香农编码第一定理。 从另一角度来理解定理——用系统的概率分布函数
′ 由无失真准则,则 即 P ( sm | uL ) = P (vL | sm ) → → 所以 P(ϕ ) = p(uL ) f .g = p(uL ) 即系统与信源匹配。
•系统优化其物理实质: 就是要研究系统在某种优化指标下,上述两类 参数在满足什么条件时对应的编、译码存在; 又在什么条件下,对应的编、译码不存在。

信息论与编码理论-第4章无失真信源编码-习题解答-20071202

信息论与编码理论-第4章无失真信源编码-习题解答-20071202

信息论与编码理论-第4章无失真信源编码-习题解答-20071202信息论与编码理论第4章无失真信源编码习题及其参考答案4-1 有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A、B、C、D、E和F(1)求这些码中哪些是唯一可译码;(2)求哪些码是及时码;(3)对所有唯一可译码求出其平均码长。

?X??s14-2 设信源????p(s)P(X)???1s6?p(s2)?p(s6)???s2?p(s)?1。

对此次能源进行m元唯一ii?16可译编码,其对应的码长为(l1,l2,…,l6)=(1,1,2,3,2,3),求m值的最好下限。

(提示:用kraft不等式)?s?X??14-3设信源为??1??p(X)???2?(1)信源的符号熵;(2)这种码的编码效率;s214s3s411816s5132s6s7s8?,编成这样的码:(000,001,111???64128128?010,011,100,101,110,111)。

求(3)相应的仙农码和费诺码。

4-4求概率分布为(,11122信)源的二元霍夫曼编码。

讨论此码对于概率分布为355151511111(,,,,)的信源也是最佳二元码。

555554-5有两个信源X和Y如下:1信息论与编码理论s2s3s4s5s6s7??X??s1??p(X)??0.200.190.180.170.150.100.01?????s2s3s4s5s6s7s8s9??Y??s1??p(Y)??0.490.140.140.070.070.040.020.02 0.01?????(1)用二元霍夫曼编码、仙农编码以及费诺编码对信源X和Y进行编码,并计算其平均码长和编码效率;(2)从X,Y两种不同信源来比较三种编码方法的优缺点。

4-6设二元霍夫曼码为(00,01,10,11)和(0,10,110,111),求出可以编得这样霍夫曼码的信源的所有概率分布。

4-7设信源为?码。

信息论与编码第4章习题解答

信息论与编码第4章习题解答

《信息论与编码》第四章习题解答4.1 计算如下所示离散无记忆信道的容量: 习题4.1图[解] (a )信道概率转移矩阵为−−−−=δεδεεδδε11P , 信道是准对称信道,因此在输入为等概分布时达到信道容量,即5.0)1()0(====X P X P 时达到信道容量。

这时δ5.05.0)0(−==Y P δ==)1(Y Pδ5.05.0)2(−==Y P相应的信道容量为);1();0(Y X I Y X I C ====∑==2)()0|(log)0|(j j p j p j p 0111-ε1-δε δ 00 121-ε-δ εδδ 1-ε-δ1ε0 221 0.5 δ 110.250.25 0.50.50 2 21-ε ε ε 1-ε1ε 11-ε 0 0 223/41/4 111/3 1/31/3 1/43/40 2 311/3 211/31/3 1/31/31/3 1/3 1/31/3 (c)(a)(b) (e)(f)(d)δεεδδδδδεδε5.05.0log log 5.05.01log)1(−++−−−−−=)5.05.0log()1(log )1log()1(δδεεδεδε−−−+−−−−= (b )信道概率转移矩阵为=5.05.0025.025.05.0001P当5.0)2()0(====X P X P ,0)(=X P 时,5.0)0(==Y P ,25.0)1(==Y P ,25.0)2(==Y P1)()0|(log )0|();0(2===∑=j j p j p j p Y X I bit∑===2)()2|(log)2|();2(j j p j p j p Y X I 125.05.0log 5.025.05.0log 5.0=+= bit10);1(≤==Y X I ; 所以满足定理4.2.2条件,由达到信道容量充要条件可知,信道容量C =1 bit/次(c )信道转移概率矩阵为−−−=εεεεεε101001P ,信道是对称信道,当输入为均匀分布时,即31)2()1()0(======X P X P X P 时,达到信道容量。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

§4.2 离散无记忆信道 对称DMC容量的计算

P的所有列都是第一列的一种置换,信 道是关于输出对称的
0 .8 0 .2 P 0 .5 0 .5 0 .2 0 .8
§4.2 离散无记忆信道
命题2 若DMC关于输出为对称的,则当输入分布等概时,输 出分布等概。 证明 此时{p(y|x),x=0~ K-1}与{p(0|x),x=0~ K-1}互为置换。 设q(x)=1/K,x∈{0, 1, …, K-1}。则
q( z ) p( y | z )
都取一个相同的值;对任何满足q(k)=0的k,I(X=k; Y)都 不大于此相同的值。 (2)此时此相同的值恰好就是信道容量C。
§4.2 离散无记忆信道
注解
如果对DMC信道没有任何简化,要计算最佳输 入分布并不容易。但是,通常使用的DMC是很简单 的(比如,以下的准对称信道和对称信道),最佳 输入分布很容易求出。
§4.2 ቤተ መጻሕፍቲ ባይዱ散无记忆信道
定理4.2.2(p91) (1)输入概率分布{x, q(x), x∈{0, 1, …, K-1}}是最佳输入分 布的充分必要条件为:对任何满足q(k)>0的k,
I ( X k ; Y ) p( y | k ) log K 1
y 0 z 0 J 1
p( y | k )
第四章:信道及其容量
§4.1 §4.2 §4.5 §4.6 §4.7 信道分类 离散无记忆信道 信道的组合 时间离散的无记忆连续信道 波形信道
5
§4.1 信道分类

所有信道都有一个输入集A,一个输出集B以及 两者之间的联系,如条件概率P(y│x),x∈A, y∈B。这些参量可用来规定一条信道。

§4.2 离散无记忆信道
一、有关DMC的信道容量 设 DMC在某个时刻输入随机变量为X,输出随机变 量为Y。

X的概率分布为{x, q(x), x∈{0, 1, …, K-1}}。 Y的概率分布为{y, w(y), y∈{0, 1, …, J-1}}。

信道响应特性为转移概率矩阵 [p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}], 它是一个K×J阶矩阵(其中p(y|x)=P(Y=y|X=x)), 即
J 1
对任意k∈{0, 1, …, K-1}都成立。 证明 {p(y|x),y=0~ J-1}与{p(y|k),y=0~ J-1}互为置换,所以
K 1 J 1 1 1 H (Y | X ) q( x) p( y | x) log q( x) p( y | x) log p( y | x) x 0 p ( y | x) x 0 y 0 y 0 J 1 1 1 q( x) p( y | k ) log p( y | k ) log H (Y | k ) p( y | k ) y 0 p( y | k ) x 0 y 0 K 1 J 1 K 1 J 1

§4.2 离散无记忆信道



离散无记忆平稳信道的定义 信道容量的定义及定理 离散无记忆平稳信道的信道容量的计算

特殊的离散无记忆平稳信道-准对称信道的 信道容量的计算

三种特殊的准对称信道的信道容量的计算

一般离散无记忆平稳信道的信道容量的计算
§4.2 离散无记忆信道
定义4.2.1和定义4.2.2(p88) 如果
1 w( y ) q( x) p( y | x) K x 0 1 K 1 p (0 | x ) , K x 0 即w( y )与y无关。
K 1
p ( y | x)
x 0
K 1
§4.2 离散无记忆信道
定义4.2.6(p92) 若DMC的转移概率矩阵P的列的全体可分成 若干个列子集,每个列子集所对应的转移概率矩阵P的子 阵都满足以下两条性质: 任一行是第一行的置换, 任一列是第一列的置换。 则称信道为准对称信道。




当输入集和输出集都是离散集时,称信道为离散信道。 电报信道和数据信道就属于这一类。 当输入集和输出集都是连续集时,称信道为连续信道。 电视和电话信道属于这一类。 当输入集和输出集中一个是连续集、另一个是离散集 时,则称信道为半离散信道或半连续信道。连续信道 加上数字调制器或数字解调器后就是这类信道。 当输入集和输出集都是连续集,输出时刻离散时,称 信道为时间离散的连续信道。 当输入集和输出集都是连续集,且输出时刻连续时, 称信道为波形信道。
w( y ) q( x) p( y | x)
x 0 K 1
( w(0), w(1),, w( J 1)) p(1 | 0) p( J 1 | 0) p ( 0 | 0) p(0 | 1) p ( 1 | 1 ) p ( J 1 | 1 ) (q(0), q(1),, q( K 1)) p(0 | K 1) p(1 | K 1) p( J 1 | K 1)
若信道的输入为x,输出是哪一个符号y事先无法确定, 但信道输出一定是{0, 1, …, J-1}中的一个,即
对任意x,
p( y | x) P(Y {0,1,, J 1} | X x) 1
y 0
J 1
因而转移概率矩阵的每一行都是一个概率向量。
§4.2 离散无记忆信道

对任意y∈{0, 1, …, J-1},由全概率公式有
则称该信道为离散信道。如果更有

则称该信道为离散无记忆信道(DMC)。如果更有

则称该信道为离散无记忆平稳信道。
例:二元对称信道BSC

p=0.1
1-p 0 p p 1 1-p 1 0
例:二元对称信道BSC


当N=1时, p(0|0)=p(1|1)=0.9; p(0|1)=p(0|1)=0.1; 当N=2时, p(00|00)= p(0|0)p(0|0) =p(11|11)=p(1|1)p(1|1)=0.9*0.9=0.81; p(01|00)=p(10|00) =p(01|11)=p(10|11)=0.9*0.1=0.09; p(11|00)=p(11|00)=0.1*0.1=0.01
§4.1 信道分类
根据信道的参数与时间的关系,信道又可以分为:

恒参信道:参数不随时间变化 随参信道:参数随时间变化 无记忆信道:信道当时的输出只依赖于当时的输入, 与其它时刻的输出及输入都无关系,即 有记忆信道 平稳信道:信道在不同时刻的响应特性(转移概率) 是相同的,即
对任意x∈{0, 1, …, K-1},y∈{0, 1, …, J-1},任意两个时刻u和v, 还有P(Yu=y|Xu=x)=P(Yv=y|Xv=x)。 P((Y1Y2…YN)=(y1y2…yN)|(X1X2…XN)=(x1x2…xN)) =P(Y1=y1|X1=x1)P(Y2=y2|X2=x2)…P(YN=yN|XN=xN) 。
§4.1 信道分类
根据信道的用户多少,可以分为:

两端信道: 它是只有一个输入端和一个输出端 的单向通 信的信道,它是多用户信道的基础。

多端信道:当输入和(或)输出不止一个时,称 为多用户信道,也就是几个用户合用一个信道。


当有几个输入而输出只有一个时,习惯上称为多址接 入信道。 当只有一个输入,而输出有几个时,就称为广播信道。
§4.2 离散无记忆信道
p(1 | 0) p( J 1 | 0) p(0 | 0) p(0 | 1) p ( 1 | 1 ) p ( J 1 | 1 ) p(0 | K 1) p(1 | K 1) p( J 1 | K 1)
§4.2 离散无记忆信道

I(X; Y)是概率向量{q(x), x∈{0, 1, …, K-1}}和转移 概率矩阵[p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}]的函数。
p ( y | x) I ( X ; Y ) P(( XY ) ( xy)) log w( y ) x 0 y 0 q( x) p( y | x) log K 1
输入集就是信道所容许的输入符号的集。通常输入 的是随机序列, 随机过程在限时或限频的条件下均 可化为随机序列。在规定输入集A时,也包括对各 随机变量的限制,如功率限制等。 输出集是信道可能输出的符号的集。输出序列可以 是数或符号,也可以是一组数或矢量。

§4.1 信道分类

按输入集和输出集的性质,可划分为:

信道能无错误地传送的最大信息率,也就是信道容量的 计算问题,并 证明这样的信息率是能达到或逼近的,最好还能知道如何 实现, 这就是信道编码问题。
这些是山农建立信息论时提出的关于信道的理论问 题。他自己回答了一些,以后许多学者又使之不断 完善。 一般而论,对于无记忆信道,这些问题已基本解决, 但具体编码方法,如采用代数码来纠错还不能达到 要求。
I ( X ;Y )
达到信道容量的输入概率分布{x, q(x), x∈{0, 1, …, K1}}称为最佳输入分布。


若转移概率矩阵[p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}]确定,如何选择概率向量{q(x), x∈{0, 1, …, K-1}}使I(X; Y) 达到最大? 由定理2.6.2有,
§4.2 离散无记忆信道

若信道转移概率矩阵所有行矢量都 是第一行的置换,称信道是关于输 入对称的。
0.8 0.1 0.1 P 0 . 1 0 . 1 0 . 8
§4.2 离散无记忆信道
命题1 若DMC关于输入为对称的,则
1 H (Y | X ) p( y | k ) log H (Y | X k ) p( y | k ) y 0
相关文档
最新文档