信息论 基础理论与应用第三版(傅祖芸) 第六章 讲义

合集下载

信息论课件第六章

信息论课件第六章

根据这样一个信道矩阵,设计 一个译码规则A,即 F (b1 ) = a1 A : F (b2 ) = a2 F (b3 ) = a3
由于S个输出符号中的每一个都可以译成r个输入符号 r s 种译码规则可供选择。 中的任何一个,所以共有
译码规则的选择应该根据什么准则?一个很自然的 准则当然就是要使平均错误概率最小. 为了选择译码规则,首先必须计算平均错误概率. 在确定译码规则F(bj)=ai后,若信道输出端接收到的 符号为bj,则一定译成ai,如果发送端发送的就是ai,这 就为正确译码;如果发送的不是ai,就认为错误译码. 那么收到bj 条件下译码的条件正确译码概率为 P[F(bj)|bj]=P(ai|bj) 令P(e|bj)为条件错误译码概率,其中e表示除了F(bj)=ai 以外的所有输入符号的集合. 条件错误译码概率与条件正确译码概率之间有关系 (6.3) P(e|bj)=1-P(ai|bj)=1-P[F(bj)|bj]
一般P(b j ) ≠ 0, b j ∈ B, 这样,最大后验概率准则就可 表示为:选择译码函数 F (b j ) = a * a * ∈ A, b j ∈ B
使满足P(b j | a * ) P(a * ) ≥ P(b j | ai ) P(ai ) ai ∈ A, ai ≠ a * (6.7)
若输入符号的先验概率 P ( ai )均相等,则上式可以写 成 选择译码函数 F (b j ) = a * a * ∈ A, b j ∈ B ( 6 .8 a ) (6.8b) 并满足 P (b j | a * ) ≥ P (b j | ai ) ai ∈ A, ai ≠ a *
6.2 错误概率与编码方法
从(6.10)可知,消息通过有噪信道传输时会发生错 误,而错误概率与译码规则有关。 但一般当信道给定即信道矩阵给定,不论采用什 么译码规则,PE总不会等于或趋于0。 而要想进一步减少错误概率PE,必须优选信道编 码方法。

信息论讲义_第六讲

信息论讲义_第六讲
23
3.5.2 有限状态马尔可夫链
p00=p(Y2=0|Y1=0)=p(X=0)=p
p01=p(Y2=1|Y1=0)=p(X=1)=q
p10=p(Y2=0|Y1=1)=p(X=1)=q
p11=p(Y2=1|Y1=1)=p(X=0)=p
说明:
转移矩阵为
p q
q p

,它与r无关,因而是齐次的。
信息理论基础
(第六讲)
授课教师:于 泽 电子信息工程学院201教研室
第三章 离散信源
内容提要 3.1 信源的数学模型及其分类 3.2 离散无记忆信源 3.3 离散无记忆信源的扩展信源 3.4 离散平稳信源 3.5 马尔可夫信源
2
3.4 离散平稳信源(续)
④ N次扩展信源熵的性质
(1) 条件熵 H XN | X1X2L XN1随N的增加是非递增的
q
22
3.5.2 有限状态马尔可夫链
• 输入的码Xr(r=1,2,…)是相互独立的,取值0或1, 且已知p(X=0)=p,p(X=1)=1-p=q,输出的码是Yr, 显然有
Y1= X1,Y2=X2Y1… 其中 表示模2加,那么Yr就是一个马氏链,因
Yr确定后,Yr+1分布只与Yr有关,与Yr-1、Yr-2… 等无关,且知Yr序列的条件概率为
pikm p jkr
i, j S
kS
注意:P(n)是经过n步的转移矩阵。
25
3.5.2 有限状态马尔可夫链
3.初始分布
定义:设P(X0=Si)=pi , 且
pi 0

i
pi 1
则称它为马尔可夫链的初始分布
26
3.5.2 有限状态马尔可夫链

信息论 基础理论与应用第三版(傅祖芸) 第5章 讲义

信息论 基础理论与应用第三版(傅祖芸) 第5章 讲义

编码后信源的信息传输率 令: R ' l log r
N
l log r H ( S ) N
(编码后,平均每个信源 符号承载的信息量)
R' H ( S )
可见,只有编码后信息传输率 R' H ( S ) ,才能实现无失真编码。
编码效率
H (S ) H (S ) ' l R log r N
信源 符号
码字
00: W1W1=B1
001:W1W2=B2 0001:W1W3=B3 0111:W1W4=B4
信源 符号
码字
010:W2W1=B5
信源 符号
码字
α1
α2 α3 α4
α5
: : :

: : α16

: :
111111:W4W4=B16
: : :
6、唯一可译码(单义可译码)
由码构成的任意一串有限长的码符号序列只能被唯一的 译成所对应的信源符号序列。 否则,就为非惟一可译码或非单义可译码。
引 言
信息通过信道传输到信宿的过程。要做到既不失真又快速地 通信,需要解决两个问题: 信源编码: 在不失真或允许一定失真条件下,提高信息传输率. 信道编码: 在信道受到干扰的情况下,增加信号的抗干扰能力,同时又 使得信息传输率最大.

最佳编码: 一般来说,抗干扰能与信息传输率二者相互矛盾。而编码 定理理论上证明,至少存在某种最佳的编码能够解决上述矛盾, 做到既可靠又有效地传输信息。 信源编码: 信源虽然多种多样,但无论是哪种类型的信源,信源符号 之间总存在相关性和分布的不均匀性,使得信源存在冗余度。 信源编码的目的就是要减少冗余,提高编码效率。
5、码的N次扩展

信息论-复习资料(傅祖芸版本)

信息论-复习资料(傅祖芸版本)
通信的实质?
即:传递信息,消除不确定性。
31
2.2.2 信息熵
对一个信源发出不同消息所含有的信息量也不同。所以 自信息I(ai)是一个随机变量,不能用它来作为整个信源 的信息测度。
信息熵:自信息的数学期望,平均自信息量Hr(X):
Hr (X ) Elogr
1 p(ai
)
q i 1
p(ai
26
2.2 离散信源的信息熵
基本的离散信源: 输出单符号消息,且这些消息间两两互不相容。用一
维随机变量X来描述信源的输出,其数学模型可抽象为:
X P(x)
a1 P(a1
)
a2 P(a2 )
a3 P(a3 )
... ... ... ...
aq
P(aq )
q
P(ai ) 1
i 1
问题:这样的信源能输出多少信息? 每个消息的出现携带多少信息量?
... ... ... ...
aq P(aq )
▪概率空间能表征离散信源的统计特性,因此也称概率空
间为信源空间。
21
2、随机矢量描述的信源
1)平稳信源
特点:
信源输出的消息由一符号序列所组成。 可用N维随机矢量 X=(X1,X2,…,XN)描述,且随机矢量 X的各维概率分布都与时间起点无关 。
离散平稳信源:每个随机变量Xi (i=1,2,…,N)是取值离 散的随机变量。
(下标1-N为时间标志)
N
P(X) P( X1X 2 X N ) P( Xi )
i 1
若各随机变量Xi取值同样符号集A:{a1,a2,…,aq},则
N
P(x i ) P(ai1ai2 ,..., aiN ) P(aik ), ik (1,2,..., q) k 1

《信息论》—基础理论与应用 傅祖芸 课后答案

《信息论》—基础理论与应用 傅祖芸 课后答案

【解释】
当信源符号的概率趋向等概率分布时,不确定性增加,即信息熵是增加的。
L
m
∑ ∑ 【2.11】试证明:若 pi = 1, q j = pL ,则
i=1
j q1 , q2 ,K, qm )
=
H ( p1,
p2 ,K,
pL−1 ,
pL )
+
pL H (
q1 pL
第二章课后习题
【2.1】设有 12 枚同值硬币,其中有一枚为假币。只知道假币的重量与真币的重量不同,
但不知究竟是重还是轻。现用比较天平左右两边轻重的方法来测量。为了在天平上称出哪
一枚是假币,试问至少必须称多少次?
解:从信息论的角度看,
“12 枚硬币中,某一枚为假币”该事件发生的概率为 P = 1 ; 12
熵是增加的,并用熵的物理意义加以解释。
解:
设新的信源为 X ′ ,新信源的熵为:
∑ H ( X ′) = − pi log pi = −( p1 − ε ) log( p1 − ε ) − ( p2 + ε ) log( p2 + ε ) − L − pq log pq
原信源的熵
因此有,
∑ H ( X ) = − pi log pi = − p1 log p1 − p2 log p2 − L − pq log pq
p1
− 2
p2

,则
f ′(x) = log p2 + x ≤ 0 p1 − x
本页已使用福昕阅读器进行编辑。 福昕软件(C)2005-2010,版权所有, 仅供试用。
即函数 f (x) 为减函数,因此有 f (0) ≥ f (ε ) ,即
( p1 − ε ) log( p1 − ε ) + ( p2 + ε ) log( p2 + ε ) ≤ p1 log p1 + p2 log p2 因此 H ( X ) ≤ H ( X ′) 成立。

信息论与编码傅祖云讲义

信息论与编码傅祖云讲义
p( y 1 x 0) p( y 0 x 1) 0 是较合理旳。
单符号离散信道旳数学模型
由此可见,一般单符号离散信道旳转移概率可用
信道转移矩阵P来表达:
b1
b2
a1 a2
p(b1 a1)
p(b1
a2
)
p(b2 a1) p(b2 a2 )
ar p(b1 ar ) p(b2 ar )
3.1信道旳数学模型及分类
在广义旳通信系统中,信道是很主要旳一部分。
信道旳任务是以信号方式传播信息和存储信息。
研究信道旳目旳就是研究信道中能够传送或存储 旳最大信息量,即信道容量问题。
本章首先讨论离散信道旳统计特征和数学模型, 然后定量地研究信道传播旳平均互信息及其性质 ,并导出信道容量及其计算措施。
4、平均互信息旳凸状性(两个定理)
定理3.1 平均互信息I (X ;Y ) 是信源概率分布p(x)旳 ∩型凸函数。
平均互信息旳特征
定理3.1旳意义:对于每一种固定信道,一定存在 一种信源(某一概率分布P(X)),使输出端取得 旳平均信息量为最大Imax(∩型凸函数存在极大 值)。这时称这个信源为该信道旳匹配信源。
log
p
1
p
p
log
1 p
p
log
1 p
H ( p p) H ( p)
二元对称信道BSC旳平均互信息
I
(
X
;Y
)
(
p
p)
log
p
1
p
(p
p)
log
p
1
p
p
log
1 p
p
log
1 p
H ( p p) H ( p)

信息论基础理论与应用第三版(傅祖芸)第六章讲义(课堂)-2023年学习资料

信息论基础理论与应用第三版(傅祖芸)第六章讲义(课堂)-2023年学习资料

而错误译码的概率为收到b,后翻译为;,但发送端实际上-发送的却不是,则为错误译码,其条件错误概率为:-Pelb;=1 Pa;/b;-e表示:除了Fb,=a:以外的所有输入符号的集合。-则可得平均错误译码概率:-P。=EPe1b,】=∑ b,Pe/b,-它表示经过译码后平均每收到一个符号所产生错误的大小,-也称平均错误概率。-7
第6章有噪信道编码定理-6.1错误概率与译码规则-6.2错误概率与编码方法-6.4有噪信道编码定理-6.5联合信源信 编码定理
前面已经从理论上讨论了,对于无噪无损信道-只要对信源进行适当的编码,总能以信道容量无差-错的传递信息。但是一般信道总 存在噪声和干扰,-信息传输会造成损失。-那么在有噪信道中怎样能使消息传输发生的错误-最少?进行无错传输的可达的最大信 传输率是多-少呢?-这就是本章所要讨论的问题。本章的核心是香农-第二定理。-2
2采用最小错误概率译码准则,则联合矩阵为:-0.125-0.075-0.05-Pab;=Pa,Pb la;[Pab; -0.15-0.2-Fb=43-所得译码函数为:C:Fb,=4-Fb3=43-平均错误概率:-PE=∑PaPb,la -Y,X-a-=∑Pa,b-=0.125+0.05+0.075+0.075+0.05+0.125=0.5≤P-13
选讲当然,也可以对联合概率矩阵PaPbj/a中:-1先求每一行中除去Fb=a*所对应的Pab以外的元素之和;-2然后 对各行的和求和。-具体计算如下:-P=∑PaPb,Ia=∑∑Pa,Pb;la-Y.X-a-XY-a*对应的b;-即: B=∑P4∑{P6,1aF6,≠W}-=∑Pa,pa-某个输入符号ai传P-11
平均错误概率的计算-当译码规则确定后,可进一步计算平均错误概率:-P=2Pb,Pe/b,=21-PIFb,/b,1} b,-=1-2P[Fb,b,]=∑pab,-∑PFb,b,]-=∑pab,-∑Puib,]-,平均正确概率-=∑Pa b,=∑PaPb,1a-+信道传递概率-Y,X-a-上式中,平均错误概率计算是在联合概率矩阵PaPb川a]中:-1先 每一列除去Fb=a*所对应的Pa*b以外的元素之和;-2然后,对所有列求和。-10

《信息论》—基础理论与应用(傅祖芸)课后答案

《信息论》—基础理论与应用(傅祖芸)课后答案

注意:消息中平均每个符号携带的信息量有别于离散平均无记忆信源平均每个符号携带的 信息量,后者是信息熵,可计算得 H ( X ) = − ∑ P( x) log P( x) = 1.91 比特/符号
【2.6】如有 6 行 8 列的棋型方格,若有二个质点 A 和 B,分别以等概率落入任一方格内, 且它们的坐标分别为(XA,YA)和(XB,YB) ,但 A 和 B 不能落入同一方格内。 (1) 若仅有质点 A,求 A 落入任一个格的平均自信息量是多少? (2) 若已知 A 已落入,求 B 落入的平均自信息量。 (3) 若 A、B 是可分辨的,求 A、B 同都落入的平均自信息量。 解: (1)求质点 A 落入任一格的平均自信息量,即求信息熵,首先得出质点 A 落入任一 格的概率空间为: a X 1 P = 1 48 平均自信息量为 H ( A) = log 48 = 5.58 比特/符号 (2)已知质点 A 已落入,求 B 落入的平均自信息量,即求 H ( B | A) 。 A 已落入,B 落入的格可能有 47 个,条件概率 P(b j | ai ) 均为
= −(1 − ε )∑ Pi log(1 − ε ) − (1 − ε )∑ Pi log Pi − ε ∑ Pi log ε − ε ∑ Pi log Pi
′ = p1 − ε , 【2.10】设有一概率空间,其概率分布为 { p1 , p 2 ,..., p q } ,并有 p1 > p 2 。若取 p1 ′ = p 2 + ε ,其中 0 < 2ε ≤ p1 − p 2 ,而其他概率值不变。试证明由此所得新的概率空间的 p2 熵是增加的,并用熵的物理意义加以解释。 解: 设新的信源为 X ′ ,新信源的熵为: H ( X ′) = −∑ pi log p i = −( p1 − ε ) log( p1 − ε ) − ( p 2 + ε ) log( p 2 + ε ) − L − p q log p q 原信源的熵 H ( X ) = − ∑ p i log pi = − p1 log p1 − p 2 log p 2 − L − p q log p q 因此有, H ( X ) − H ( X ′) = ( p1 − ε ) log( p1 − ε ) + ( p 2 + ε ) log( p 2 + ε ) − p1 log p1 − p 2 log p 2 p1 − p 2 令 f ( x ) = ( p1 − x) log( p1 − x ) + ( p 2 + x ) log( p 2 + x) , x ∈ 0, 2 ,则 f ′( x) = log p2 + x ≤0 p1 − x
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

这就是本章所要讨论的问题。本章的核心是香农 第二定理。
6.1 错误概率与译码规则
为了减少传输错误,提高通信的可靠性,就必须分 析错误概率与哪些因素有关,有没有办法控制?能控制 到什么程度? 一般地,错误概率与如下因素相关: 信道的统计特性
译码规则
例:有一个BSC信道,如图所示
P(0)
信源
0 2/3 2/3
PE P(b j ) P(e / b j ) {1 P[ F (b j ) / b j ]}P(b j )
Y Y
P[ F (bj )bj ]
X ,Y Y
p(aib j ) P[a*b j ]
最小错误概率准则(最大后验概率准则)
如何设计译码规则 F (bj ) ai ,使平均错误概率最小?
决定于译码规则
PE E P(e / b j ) P(b j ) P(e / b j )
j 1


s
min PE P(b j ) min P(e / b j )
j 1 s
s

4
码D
8
码字
000 111
000 011 101 110
当n=5时 当n=7时 当n=9时 当n=11时
PE 105 PE 4 107 PE 108 PE 5 10
10
但是n很大时,信道的信息传输率会降低很多:(M为许用码 字的个数,即输入消息个数,n为编码后码字的长度)
在上例中:M=2
当n=1时 当n=3时 当n=5时 R=1 R=1/3 R=1/5
010
011 100 101 110
1 2 3 4 5 6 7 8
011
100 101 110 111
111 (表示1)
1 2 3 4 5 6 7 8
则信道矩阵为:
000
001
010
011
100
101
110
111
p 3 p 2 p p 2 p pp 2 p 2 p pp 2 pp 2 p 3 000 P 3 2 2 2 2 2 2 3 pp pp p p pp p p p p p 111 p 根据最大似然译码准则,当p=0.01,可得译码函数为:
k 1
如:
i 101111

j 111100
D(i , j ) 3
在某一码中,任意两个码字Ci、Cj的汉明距离的最小值称为该 码C的最小距离。
dmin min{D(Ci , C j )}
Ci C j
讨论4种码的距离和错误概率(码长=3):
码A
消息数M 2
码B
4
码C
PE P(0) 1 P

(0) e
P(1)1 P
(1) e
可见错误概率与译码规则有关。
译码规则:
输入符号集 输出符号集 译码规则
例:某信道转移矩阵
A {ai }, i 1,2,...r
B {b j }, j 1,2,...s
F (bj ) ai
0.5 0.3 0.2 P 0.2 0.3 0.5 0.3 0.3 0.4
3
一般地,有如下规律: 在二元信道的n次扩展信道中,选取其中的M个作为消息,则 M大一些, PE 跟着大,R也大;M小一些, PE 跟着小,R也小。 如果上例中,取M=4,如:取000 011 101 110为消息,则 2 2 PE 2*10 R 3 与M=8比较,错误率降低了,而信息率也降低了。
而在第二种方法中,如果000中任何一位出错,就变成了其他的 合法的码字,我们无法判断是否出错。
再仔细观察,发现第二种方法中,码字之间太相似。
码字距离:
长度为n的两个码字对应位置上不同码元的个数。通常称 为汉明距离:
在二元码中,码字的汉明距离:
n
D( i , j ) ik jk
可以设计译码准则: A:

B:
F (b1 ) a1
F (b1 ) a1
F (b2 ) a2
F (b3 ) a3
F (b2 ) a3
F (b3 ) a2
总的译码规则数目 r s
信道的s个输出符号的每一个译码输出有 r 种选择,因此,总的 译码规则总数为
r
s
译码规则的选择依据
一个自然的依据就是使平均错误概率最小。 为了选择译码规则,需要计算平均错误概率。
平均错误概率:
PE'''
Y , X a*
P(a )P(b
i
j
| ai )
Y , X a*

P(ai b j )
(0.125 0.05) (0.075 0.075) (0.05 0.125) 0.5 PE''
6.2 错误概率与编码方法
一般信道传输时都会产生错误,而选择译码准则并 不会消除错误,那么如何减少错误概率呢?下边讨论通 过编码方法来降低错误概率。 例:对于如下二元对称信道

条件错误概率 条件正确概率
s
P(b j ) min( 1 P(ai / b j )) P(b j ) 1 max P(ai / b j )
j 1 j 1


*


因此应选择译码规则 F (bj ) a 满足关系:
i为待定
P(a / bj ) P(ai / bj )
0.125 0.075 0.05 0.05 0.075 0.125 P ( a b ) P(aib j ) P(ai ) P(b j | ai ) i j 0.2 0.15 0.15 F (b1 ) a3 所得译码函数为:C: F (b ) a 2 3 F (b ) a 3 3
X ,Y Y
平均正确概率

Y , X a*
P(a b ) P(a )P(b
i j i Y , X a*
j
| ai )
信道传递概率
上式中,平均错误概率计算是在联合概率矩阵[P(ai)P(bj|ai)]中: 1)先求每一列除去F(bj)=a*所对应的P(a*bj)以外的元素之和;
2)然后,对所有列求和。
另外一个问题,消息数固定而编码选取方法不同,错误率也不同。 比较两种选取方法:
第一种: 000 011 101 110
第二种: 000 001
010 100
可以计算得第一种方法的错误率为 第二种方法的错误率为
2*102 2.28*10
2
比较可知,第一种方法好。仔细观察发现: 在第一种方法中,如果 000 有一位出错,就可以判定出错了;
1 1 1 P(a1 ) , P(a2 ) , P(a3 ) ,则错误概率为: 4 4 2
PE''
Y , X a*

P(a) P(b | a)
1 / 4(0.3 0.2) 1 / 4(0.3 0.3) 1 / 2(0.2 0.5) 0.6
2)采用最小错误概率译码准则,则联合矩阵为:
(选讲)当然,也可以对联合概率矩阵[P(ai)P(bj/ai)]中: 1)先求每一行中除去F(bj)=ai*所对应的P(aibj)以外的元素之和; 2)然后,对各行的和求和。
具体计算如下:
PE
即:
Y , X a*
P(a ) P(b
i
X
j
| ai )
X Y ( a*对应的 b j )
1/ 2 p3 p p 2 p p 2 p p 2 p p 2 p p 2 p p 2 p3 p 3 3 p p 2 3 10 4 ( p 0.01)
PE 0.01 102

Y 3C *
P(
j
| i )

现在码元个数n=3,已经将错误概率降低了两个数量级;若重 复更多次,n=5,7,…,还可以进一步降低错误概率,上例中:
平均错误概率分析:
译码规则确定后,设信道输出端收到 bj时一定译为 ai。 如果发送端刚好发送的就是 确概率为:
ai,则为正确译码,译码的条件正
P(F (bj ) / bj ) P(ai / bj )
而错误译码的概率为收到 bj 后翻译为 ai ,但发送端实际上 发送的却不是 ai ,则为错误译码,其条件错误概率为:

P(a*b j ) P(aib j )
最大似然译码准则
当信源等概分布时,则最小错误概率准则变为
P(bj / a* ) P(bj / ai )
这称为最大似然译码准则,方法是收到一个 bj 后,在信道矩 阵的第j列元素中选择最大的值所对应的输入符号作为译码输出。
平均错误概率的计算
当译码规则确定后,可进一步计算平均错误概率:
0.5 0.3 0.2 P 0.2 0.3 0.5 0.3 0.3 0.4
1 1 PE P(b / a) [(0.2 0.3) (0.3 0.3) (0.2 0.4)] 0.567 3 Y , X a* 3
若输入不等概分布
0 0.01 0.01 1 0.99 1 0.99
0
按照最大似然准则译码, PE 0.01 102
如何提高信道传输的正确率呢?可用重复消息的方法,即尝试 扩展信道的方法。
未用的码字 (禁用码字) 001 用作消息的码字 (许用码字) 000 (表示0) 输出端 接收序列 000 001 010 二元对称信 道的三次扩 展信道
P(e / bj ) 1 P(ai / bj )
e表示:除了
相关文档
最新文档