信息论基础与编码— 信道及信道容量ch04.article

信息论基础与编码— 信道及信道容量ch04.article
信息论基础与编码— 信道及信道容量ch04.article

信息论基础与编码—信道及信道容量

Contents

1 综述2

2 信道分类2

3 信道模型3

4 信道疑义度4

5 平均互信息量及其性质5

6 信道容量5

6.1 离散无记忆信道容量定理. . . . . . . . . . . . . . . . . . . . . . . 6

7 信道容量的计算7

7.1 离散无噪、无损信道的信道容量计算. . . . . . . . . . . . . . . . 7

7.2 离散对称信道的信道容量计算. . . . . . . . . . . . . . . . . . . . 8

7.3 信道矩阵可逆的信道容量求法. . . . . . . . . . . . . . . . . . . . 8

7.4 拉格朗日乘数法. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

7.5 信道容量的迭代计算法. . . . . . . . . . . . . . . . . . . . . . . . 9

8 数据处理定理11

9 信道的组合11

10 连续信道及其容量12

10.1 连续随机变量的互信息量. . . . . . . . . . . . . . . . . . . . . . . 12

10.2 连续信道的信道容量. . . . . . . . . . . . . . . . . . . . . . . . . 13

10.3 高斯加性信道的信道容量. . . . . . . . . . . . . . . . . . . . . . . 13

10.4 多维高斯加性信道的信道容量. . . . . . . . . . . . . . . . . . . . 14

10.5 波形信道及其信道容量. . . . . . . . . . . . . . . . . . . . . . . . 15

1

1 综述

?在通信系统中,信道是很重要的一部分。信道的任务是以信号的方式传输信息或存储信息。

?研究信道的两个基本问题是

1. 一个给定的信道中能够传输或存储的最大信息量,即信道容量的问

题;

2. 如何在有噪声的信道中可靠地传输或存储信息的问题。

?在本章的学习中,如果没有明确说明,则一律假设信源是理想的,即独立等概分布的离散多符号信源。

?一些有噪信道的例子:

–一根模拟电话线用于两个Modem 之间的数字通信

–木星轨道空间站与地球之间的无线电通信链路

–细胞的繁殖,父细胞向子细胞传递DNA 信息

–一个磁盘驱动器

2 信道分类

?信道是指信息传输的通道。包括:

–空间传输针对我们常见的情形,例如各种物理通道:电缆、光缆、空间等;

–时间传输是指将信息保存,以后再读取。

?按输入/输出之间的记忆性来划分:

–信道的输出只与信道当前时刻的输入有关而与信道其他时刻的输入无关,则为无记忆信道;

–信道的输出不仅与信道当前时刻的输入有关而且与以前时刻的输入有关,则为有记忆信道。

?根据信道的参数是否随时间改变可分为

–信道的统计特性不随时间变化的平稳信道;

–信道的统计特性随时间变化的非平稳信道。

?根据输入/输出的个数可分为:

–一个输入一个输出为单用户信道;

–多个输入多个输出为多用户信道,例如广播信道、卫星通信信道、网络通信信道等。

2

3

?

? 根据信道输入端和输出端的关系,可分为:

– 信道输出端无信号反馈到输入端的无反馈信道; – 信道输出端有信号反馈到输入端的反馈信道。 ? 根据信号的特点,可分为:

– 输入和输出均为离散取值信号的离散信道; – 输入和输出均为连续取值信号的连续信道;

– 输入和输出一个为离散取值,一个为连续取值的半连续信道; – 时间上也连续的取值连续信道称为波形信道。

? 本课程只研究单用户、无记忆、无反馈、平稳的离散信道,它是进一步研 究其它各种类型信道的基础。

3 信道模型

? 对于离散无记忆信道 (DMC) 来说:设信道的输入随机变量 X 的取值集合 为 A = {a 1, a 2, . . . , a r },相应的概率分布为 {p i },输出随机变量 Y 的取值 集合为 B = {b 1, b 2, . . . , b s },相应的概率分布为 {q j }。则单符号信道特性 可以用信道转移概率矩阵来表示:P = (p ji )rs = (Pr {Y = b j |X = a i })rs 。

信道的数学模型为三元组 {X, P, Y }。

? 我们可以将上述数学描述简单地扩展到多符号的信道特性:信道的输 入序列为 X = (X 1X 2 . . . X N ),其取值为 α = (x 1x 2 . . . x N ),其中 x i ∈ A, 1 ? i ? N ;相应的输出序列为 Y = (Y 1Y 2 . . . Y N ),其取值为 β = (y 1y 2 . . . y N ), 其 中 y j ∈ B, 1 ? j ? N ; 信 道 转 移 概 率 为 p (β|α) = p (y 1y 2 . . . y N |x 1x 2 . . . x N )。

多符号信道的数学模型为三元组 {X , p (β|α), Y }。

Example 1. 二进制对称信道(BSC ):

(1 ? p )

0 ? /?

[

1 p p

]

? /

? x

/? p y

P =

p 1 ? p

/ ? / ??

1

? 1 (1 ? p )

4

? B ? ?????? B ??? C

. E ....? ? ??? ? ... ??? Z 3

.

Example 2. 二进制删除信道(BEC ):

(1 ? p )?

0 ?? p x

q ??? 1

? ??

? ?

? ? y

? 1

P =

[ 1 ? p p 0 ] 0 q 1 ? q

Example 3. Z 信道:

(1 ? q )

1

? 0 /? /

[

1 0 ]

x

/ p / /

1

? 1 y

P =

p 1 ? p

(1 ? p )

Example 4. 噪声打字机信道: A ...... ???? A ????...?.??

............

1

1

3 3 1 1 0 0 ·

· · 1

1

C ?.? ?.? ?

3

3

3 0 · · · 0

?......?..

. P =

1 1

1 0 D ?? ?

???? D

3

3

. 3

· · ·

.

?

. . . . . .

.

??? ?

』 ??.? E .

.

1 1

? ? ... ?.? 3

0 0 0 · · ·

3

....? ????? ??? ......

? Y .......? ??.?.. Y Z ?.? ? .?.? ? -

?? ??....??◆ -

4 信道疑义度

Definition 5. H(X|Y ) 称为信道疑义度,意为当收到信道输出的所有符号之后对信道

输入的符号尚存的平均不确定性。

?信道疑义度也表示信源符号通过有噪信道传输后所引起的信息的损失,故也称为损失熵;输出变量Y 的平均不确定性等于通过信道传递过来的平均

互信息量I(X; Y)加上H(Y |X),这完全是由于信道中的噪声引起的,因

5

6

此 H (Y |X ) 又称为噪声熵或散布熵,它反映了信道中噪声源的平均不确定 性。

? 若信道是理想的:一一对应,则损失熵 H (X |Y ) 和噪声熵 H (Y |X ) 都应该 为零。

? 若信道的输入 X 和输出 Y 之间完全统计独立,则 I (X ; Y ) = 0,此时 H (X |Y ) = H (X ),H (Y |X ) = H (Y )。

5 平均互信息量及其性质

? 平均互信息量 I (X ; Y ) 表示信道传输信息的数量。 ? 平均互信息量的凸性:

Theorem 6 (1). 在给定信源分布的情况下,I (X ; Y ) 是信道转移概率的下凸函数。 Theorem 7 (2). 在给定信道转移概率的情况下,I (X ; Y ) 是信源分布的上凸函数。

? N 次扩展信道的平均互信息量:

Theorem 8 (3). 假设信道的输入随机序列为 X = (X 1X 2 . . . X N ),接收到的随 机序列为 Y = (Y 1Y 2 . . . Y N )。假若信道是无记忆的,则

N

I (X ; Y ) ? ∑

I (X i ; Y i )

(1)

i =1

当且仅当信源也为无记忆时上式才取等号。

Theorem 9 (4). 若信道的输入随机序列为 X = (X 1X 2 . . . X N ),通过信道传输, 接收到的随机序列为 Y = (Y 1Y 2 . . . Y N )。假若信源是无记忆的,则

N

I (X ; Y ) ? ∑

I (X i ; Y i )

(2)

i =1

当且仅当信道也为无记忆时上式才取等号。

Example 10. 当一个 BSC 的错误概率为 p = 0.15 时,其平均互信息量 I (X ; Y ) 与信源分布 p 1 的关系如下左图所示;

当一个 Z 信道的错误概率也为 p = 0.15 时,其平均互信息量 I (X ; Y ) 与信源 分布 p 1 的关系如下右图所示;

6 信道容量

Definition 11. 信道中平均每个符号所传送的信息量称为信道的信息传输率:

R =△

I (X ; Y )

(3)

7

{

1

2 ?x = λ x > 0 ? λ x = 0 2

图 1: BSC 信道和 Z 信道的平均互信息量

? 由定理7可知,I (X ; Y ) 是输入随机变量 X 的概率分布 p (x ) 的上凸函数。

因此对于一个固定的信道,总存在一个信源,使得传输每个符号平均获得 的信息量最大,也就是每个固定的信道都有一个最大的信息传输率。 Definition 12. 平均互信息量对于信源概率分布的极大值定义为信道容量:

C =△

max I (X ; Y )

(4)

p (x ) 其单位为比特/符号。而相应的输入概率分布称为最佳输入分布。

? 信道容量是在假定信源理想的情况下信道传输信息能力的极值。

? 信道容量与输入信源的概率分布无关,它只是信道转移概率的函数,只与 信道的统计特性有关。 ? 对于多符号信道,有

C = lim

1

max {I (X X . . . X N ; Y 1Y 2

. . . Y N )}

(5)

N →∞ N p (x )

Example 13. BSC 的平均互信息量 I (X ; Y ) = H (ωp + ωp ) ? H (p )。容易求得其 对

于 ω 的极大值,即当 ω = ω = 1 时,I (X ; Y ) = 1 H (。 因此,BSC 的信道容量为 C = 1 ? H (p )(比特/符号)

6.1 离散无记忆信道容量定理

Lemma 14 (K-T 条件). 令 f (x ) 是定义在 R 上的上凸函数,其中 x = (x 1, x 2, . . . , x r )

为概率矢量。假定 ?f (x )

均存在,且在 R 上连续,则 f (x ) 在 R 上取极大值的充

i

要条件是:

{

?f (x ) ?x i ? i ?f (x )

?x i ? i

(6)

8

图 2: BSC 的信道容量

Theorem 15 (离散无记忆信道容量定理). 输入概率矢量 (p 1, p 2, . . . , p r ) 达到转移

概率矩阵为 (p ji )rs 的离散无记忆信道 (DMC) 容量 C 的充要条件为:

{

I (X = x i ; Y ) = C ?p i > 0

I (X = x i ; Y ) ? C ?p i = 0 (7)

其中 I (X = x i ; Y ) 为输入为 X = x i 时,信道输出一个符号的平均互信息,即:

s I (X = x i ; Y ) = ∑ p ji log

p ji

r

(8)

7 信道容量的计算

j =1 ∑ p k p jk

k =1

? 离散无噪、无损信道的信道容量计算 ? 离散对称信道的信道容量计算 ? 信道矩阵可逆的信道容量计算 ? 一般信道容量的计算

– 拉格朗日乘数法 – 迭代法

7.1 离散无噪、无损信道的信道容量计算

? 若信道的输入和输出是一一对应的关系,则称为无噪无损信道。其信道 容量为

C = max H (X ) = max H (Y ) = log r = log s (9)

9

? 若 {X , (p (β|α)), Y } 满足 β = f (α),即由 α 可唯一确定 β,则称为无噪 有损信道,其信道容量为 C = max H (Y ) = log s ? max H (X ) = log r 。 ? 反之,若由 β 可唯一确定 α,则称为无损有噪信道,其信道容量为 C = max H (X ) = log r ? max H (Y ) = log s 。

7.2 离散对称信道的信道容量计算

? 若信道矩阵中的每一行都是由同一符号集合的不同排列组成的,则称此信 道是行对称信道。

? 若信道矩阵中的每一列都是由同一符号集合的不同排列组成的,则称此信 道是列对称信道。

? 若某信道即是行对称、又是列对称的,则称此信道为对称信道。

Theorem 16. 当信源为均匀分布时,对称信道达到信道容量:

C = log s ? H (p 1, p 2, . . . , p s ) (10)

其中 p 1, p 2, . . . , p s 为信道矩阵中的任意一行。

? 若某个对称信道的输入和输出符号个数相同,且信道中总的错误概率为

p ,此错误概率均匀地分配给 r ? 1 个不在主对角线上的元素,则称此信道 为强对称信道。

Theorem 17. 当信源为均匀分布时,强对称信道达到信道容量:

C = log r ? p log(r ? 1) ? H (p )

(11)

? 若 s 个输出符号可分为 m 个互不相交的子集,信道矩阵中各个子集对应 的列构成的子矩阵都是对称矩阵,则称原矩阵对应的信道是准对称信道。

Theorem 18. 当信源为均匀分布时,准对称信道达到信道容量:

m C = log r ? ∑

N i log M i ? H (p 1, p 2, . . . , p s )

(12)

i =1

其中 p 1, p 2, . . . , p s 为信道矩阵中的任意一行。N i 和 M i 分别为第 i 个子矩阵的 行、列元素之和。

7.3 信道矩阵可逆的信道容量求法

已知:r = s ,信道转移概率矩阵可逆;

r p j = ∑

p i p ji

(13)

i =1

假设:P 的所有分量都不为零

1

求解:根据 DMC 容量定理 (7),因为信源概率分布的所有分量 p i 都不为零, 所以有:

I (X = x i ; Y ) = C

?x i

s ∑ p ji log j =1

p ji

= C (14)

p j

s s ∑ p ji log p ji = ∑

p ji [C + log p j ] (15)

j =1

j =1

因为信道转移概率矩阵可逆且 r = s ,所以可以求出上述方程组的 s 个未知数 [C + log p j ]。 记

βj = C + log p j

(16) 所以

p j = 2βj ?C

(17)

s

由约束条件 ∑

p j = 1 可得:

j =1

s C = log ∑

2βj

(18)

j =1

根据 p j 再由式(13)求出信源概率分布,验证所有的 p i 是否满足大于零的假 设。如不满足,则说明必有若干个分量为零,再试探。

7.4 拉格朗日乘数法

? 平均互信息量 I (X ; Y ) 是 r 个变量 (p (a i ), i = 1, 2, . . . , r ) 的多元上凸函数,

r 且满足约束条件 ∑

p (a i ) = 1 因此可以用拉格朗日乘数法来求其极值。

i =1

7.5 信道容量的迭代计算法

I (X ; Y ) = ∑ ∑ p i p ji log

p ji

p j

i j

?? = ∑ ∑ p i p ji log ij

p i

(19)

其中 ?? i

j

=

p i p ji

,Φ? = (?? )rs 。

ij p j

ij 记 Φ = (?ij )rs 为满足 ?ij ≥ 0, ∑

?ij = 1 的任意矩阵。

i

10

i ?

ij = i i p ji ij i

= ij ij

i

Theorem 19. 当 P 和 P 给定时,I (X ; Y ) = I (P , Φ?) ? I (P , Φ),当 Φ = Φ? 时 等号成立。

Theorem 20. 若 Φ 固定,则:

max I (P , Φ) =I (P ?

, Φ)

P

此时 P 的分布 P ?

= (p ?) 为:

= l og [ r ∑ exp i =1

( s

( s )] ∑

p ji log ?ij

j =1

)

(20)

p i = exp

r ∑

exp i =1

∑ p ji log ?ij j =1

( s ∑ p ji log ?ij

j =1

) (21)

算法:

Step 1: 任取一输入概率分布 P (0),令 k = 0,C (0) = ?∞,并给 δ 赋初值; Step 2: 计算本轮 ?ij

?(k )

p (k )p ji r

∑ p (k )

(22)

i =1

Step 3: 计算新一轮的 p i

exp

( s ) ∑ p ji log ?(k )

p (k +1)

r ∑

exp j =1

( s ∑ p ji log ?(k )

)

(23)

i =1

j =1

Step 4: 计算新一轮的 C

r

s C (k +1)

= log ∑ exp ∑ p ji log ?(k

)

(24)

i =1 j =1

Step 5: 若

则 k = k + 1,转Step 2;

C (k +1) ? C (k )

C (k +1)

> δ (25)

Step 6: 输出 P = (p (k +1)

) r

和 C (k +1),终止。

11

n

8 数据处理定理

Lemma 21. 设 X, Y, Z 表示两个级联信道对应的三个随机变量,则其互信息满 足以下关系:

I (XY ; Z ) ≥ I (Y ; Z )

(26)

I (XY ; Z ) ≥ I (X ; Z ) (27)

等号成立的充要条件为:?x, y , z 有 p (z |xy ) = p (z |y ), p (z |xy ) = p (z |x )。即 X , Y , Z 构成一个一阶马尔可夫链。

Theorem 22 (数据处理定理). 若随机变量 X, Y , Z 构成一个一阶马尔可夫链, 则有:

I (X ; Z ) ≤ I (X ; Y ) (28) I (X ; Z ) ≤ I (Y ; Z )

(29)

? 数据处理定理表明数据在处理之后,一般只会增加信息的损失,最多保持 原来的信息不变,不可能获得额外的信息。

? 在任何信息传输系统中,最后获得的信息至多是信源所提供的信息。如果 一旦在某一过程中丢失了一些信息,以后的系统不管如何处理,如果不触 及到丢失信息过程的输入端,就不能再恢复已丢失的信息。

? 换一种说法:对接收到的数据 Y 进行处理后,无论变量 Z 和变量 Y 之间 是确定对应关系还是概率关系,决不会减少关于 X 的不确定性。

9 信道的组合

? 级联信道:设 N 个信道串连在一起,其转移概率矩阵分别为 P 1, P 2, . . . , P N , 则总的级联信道的转移概率矩阵为:

N P = P 1P 2 . . . P N = ∏

P n

(30)

n =1

根据求得的级联信道的 P ,由前述的各种方法就可求出级联信道的信道 容量。

Theorem 23.

C ≤ min {C 1, C 2, . . . , C N }

(31)

? 并联信道共有三种形式:输入并接信道、并用信道、和信道。

– 输入并接信道的 N 个组成信道具有相同的输入符号表,且输入被同 时使用,而 N 个信道的输出各不相同,他们在一起组成输出符号序 列,用 Y = (Y 1Y 2 . . . Y N ) 来表示。

12

Theorem 24.

C max H (X )

(32)

p (x )

– 并用信道的 N 个组成信道输入、输出彼此独立、各不相同,分别对 应于并联信道输入矢量和输出矢量的一个分量。

Theorem 25.

C = max I (X ; Y )

p (x )

N N = max ∑ I (X n ; Y n ) = ∑

C n

(33)

n =1 n =1

– 和信道由 N 个独立的信道组成,传输信息时每次只使用其中一个 信道。

Theorem 26.

N C = log 2 ∑

2C n

(34)

n =1

此时各组成信道的选择概率为 p n (C ) = 2(C n ?C )

10 连续信道及其容量

10.1 连续随机变量的互信息量

Definition 27. 连续随机变量 X 和 Y 之间的平均互信息量定义为: ∫ ∫

I (X ; Y ) =

2

R

p (xy ) log p (xy )

p (x )p (y )

d x d y (35)

? 连续随机变量平均互信息量的性质:

1. 对称性

2. 非负性

I (X ; Y ) = I (Y ; X ) = h (X ) + h (Y ) ? h (XY )

= h (X ) ? h (X |Y ) = h (Y ) ? h (Y |X )

(36)

I (X ; Y ) ? 0

(37)

Example 28. 已知二维高斯分布的概率密度函数为:

13

σ X

p (xy ) =

1 √

exp { 1 [ (x ? μX )2 ? 2ρ(x ? μX )(y ? μY ) ? + (y ? μY )2 ]} 2πσX σY 1 ? ρ2 2(1 ? ρ2) 2 ρX ρY 2 Y

(38)

1

2

I (X ; Y ) = ? 2

ln(1 ? ρ ) nat/sample (39)

即两个高斯随机变量之间的互信息只与归一化相关系数 ρ 有关,而与数学期望

μX , μY

及方差 σ2 , σ2 无关。 X Y

10.2 连续信道的信道容量

? 可以证明,连续信道的平均互信息量在固定信道统计特性时是信源概率密

度函数 p (x ) 的上凸函数,因此可得:

Definition 29. 连续信道的信道容量为平均互信息量关于信源概率密度函数的极 大值:

C =△

max I (X ; Y )

(40)

p (x )

10.3 高斯加性信道的信道容量

? 一般连续信道的信道容量很难计算,但是加性噪声信道则相对简单一些。

? 在加性噪声信道中,随机变量 N 表示的噪声与信道的输入随机变量 X 统 计独立,信道的输出 Y 为噪声 N 和输入 X 的线性叠加:Y = X + N 。 ? 由坐标变换理论可得:p (y |x ) = p (n ),其中 p (n ) 是噪声的概率密度函数。 此时可得:

∫ ∫

h (Y |X ) = ?

2

R

∫ ∫ = ?

2

R

∫ p (x )p (y |x ) l og p (y |x ) d x

d y p (x )p (n ) log p (n ) d x d n = ?

p (n ) log p (n ) d n

R

= h (N )

(41)

? 因此有:

C = max [h (Y ) ? h (Y |X )] = max [h (Y ) ? h (N )]

(42)

p (x )

p (x )

14

? X

Y X N N

N N

∫ N 1

? 由于 N 与 X 统计独立,故而 p (x ) 的变化不会影响到 h (N ),因此又有:

C = max h (Y ) h (N )

(43)

p (x )

? 对于不同的限制条件,连续随机变量的平均不确定性具有不同的最大值, 因此连续信道的信道容量取决于输入随机变量 X 所受的限制条件以及噪 声 N 的统计特性。

? 若输入信号的功率受限,则输出信号的功率也为有限值,此时 Y 取高斯分 布时会使平均互信息量达到极大值。

? 当 X, N 统计独立、N 为 0 均值高斯噪声且 Y = X + N 时,若输入是均

值为 0、方差为 σ2 的高斯随机变量,则输出 Y 也为高斯分布,均值为 0 且 σ2 = σ2 + σ2 . ? 可以证明,噪声功率 σ2 给定后,高斯噪声信道的信道容量最小。

Theorem 30. 若噪声 N 是均值为 0,方差为 σ2 的高斯随机变量,即满足:

则其信道容量为:

+∞ ∫ ?∞

+∞ ∫

?∞ +∞

?∞

p (n ) d n = 1 np (n ) d n = 0 n 2p (n ) d n = σ2

(44) 1 ( 2 ) ( ) C = log 2 σ 1 + X N

1 P X = log 1 +

2 P N

(45)

10.4 多维高斯加性信道的信道容量

? 当信道为多维高斯加性信道时,由于加性噪声信道必然是一个无记忆信 道,所以

有:

N I (X ; Y ) ? ∑ I (X i ; Y i ) ? 1 ∑ log (

+ P X i

) (46)

i =1 2 i =1 P N i

? 因此有:

n n ( P ) C = max I (X ; Y ) = max ∑ I (X i ; Y i ) ? log 1 + X i

(47)

p (x ) p (x ) i =1

2 P N i

当且仅当输入随机矢量 X 中各分量统计独立且均为高斯分布时达到信道 容量。

15

X N σ 2

σ σ σ σ σ 2

? 若在每个抽样时刻信源和噪声都是均值为 0、方差为 σ2 和 σ2 的高斯分 布随机变量,则

C = n log 2 ( σ2 ) 1 + X N

bit/n sample (48)

10.5 波形信道及其信道容量

? 波形信道通常根据抽样定理转化为多维连续信道进行分析。

? 假设信号和噪声的频带均限制于 (0, B ),用 2B 的抽样频率进行抽样,即 每

秒 2B 个样值,因此单位时间内的信道容量为:

( 2 ) C t = B log 1 + X

N

bit/s (49)

? 当噪声是双边功率谱密度为 N 0/2 的高斯白噪声时,有:

(

C t = B log 1 +

2 ) X

N 0B

(50)

这就是著名的香农公式。 ? 当 B → ∞ 时,有:

C t = lim B →∞

( B log 1 +

2 ) X N 0B

2 = 1.44 X N 0

(51)

? 由于高斯加性信道是实际信道中最差的信道,所以香农公式可以用于确定 实际信道的信道容量的下限。

? 香农公式给出了在有噪声的信道中无失真地传输信息所能达到的极限信 息传输率,对实际通信系统的设计有非常重要的指导意义。

The End of Chapter 4.

信息论基础各章参考答案

各章参考答案 2.1. (1)4.17比特 ;(2)5.17比特 ; (3)1.17比特 ;(4)3.17比特 2.2. 1.42比特 2.3. (1)225.6比特 ;(2)13.2比特 2.4. (1)24.07比特; (2)31.02比特 2.5. (1)根据熵的可加性,一个复合事件的平均不确定性可以通过多次实验逐步解除。如果我们使每次实验所获得的信息量最大。那么所需要的总实验次数就最少。用无砝码天平的一次称重实验结果所得到的信息量为log3,k 次称重所得的信息量为klog3。从12个硬币中鉴别其中的一个重量不同(不知是否轻或重)所需信息量为log24。因为3log3=log27>log24。所以在理论上用3次称重能够鉴别硬币并判断其轻或重。每次实验应使结果具有最大的熵。其中的一个方法如下:第一次称重:将天平左右两盘各放4枚硬币,观察其结果:①平衡 ②左倾 ③右倾。ⅰ)若结果为①,则假币在未放入的4枚币,第二次称重:将未放入的4枚中的3枚和已称过的3枚分别放到左右两盘,根据结果可判断出盘中没有假币;若有,还能判断出轻和重,第三次称重:将判断出含有假币的三枚硬币中的两枚放到左右两盘中,便可判断出假币。ⅱ)若结果为②或③即将左盘中的3枚取下,将右盘中的3枚放到左盘中,未称的3枚放到右盘中,观察称重砝码,若平衡,说明取下的3枚中含假币,只能判出轻重,若倾斜方向不变,说明在左、右盘中未动的两枚中其中有一枚为假币,若倾斜方向变反,说明从右盘取过的3枚中有假币,便可判出轻重。 (2)第三次称重 类似ⅰ)的情况,但当两个硬币知其中一个为假,不知为哪个时, 第三步用一个真币与其中一个称重比较即可。 对13个外形相同的硬币情况.第一次按4,4,5分别称重,如果假币在五个硬币的组里,则鉴 别所需信息量为log10>log9=2log3,所以剩下的2次称重不能获得所需的信息. 2.6. (1)215 log =15比特; (2) 1比特;(3)15个问题 2. 7. 证明: (略) 2.8. 证明: (略) 2.9. 31)(11= b a p ,121 )(21=b a p , 121 )(31= b a p , 61)()(1312= =b a b a p p , 241)()()()(33233222= ===b a b a b a b a p p p p 。 2.10. 证明: (略) 2.11. 证明: (略)

信息论基础》试卷(期末A卷

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为1 23x x x X 1 11P 244?? ?? ? =?? ????? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log (b-a )bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为16w ,其概率密度函数是高斯分布时,差熵的最大值为 1 log32e 2 π;与其熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 8、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)。 (2)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

朱雪龙《应用信息论基础》习题第三章答案

第三章习题答案 3.1 解: 3.2 解: (1) ?? ???≠==? ?????=?? ?????≤??? ??-??? ??-???? ???????????≤---+-=? ?????≤+∞04m o d 004m o d )43()41(4104141l o g 43l o g 043l o g 4341l o g 4143l o g )(41l o g ),(100)()(log 4344000000N N C N n P N n P N n N n P n N n U H N U P P N N N 则上式变为的个数为,则出现的个数为设该序列中出现时 δδ (2) ?? ???≤-=∑-k N k k C k k N k k N 没有满足上述条件的 满足概率为同样可推得典型序列的 时 03log 20141)43()41(05.0δ 3.3 0.469 bit/sample 3.4 1) 不妨设)20,0(2j j k j k M <≤≥+=,可进行如下编码:首先作一深度为j i K i i i N N N N N P P U H U H X X X P U H X X X P N log )())(exp(),(lim )(),(log 1lim 12121∑=∞→∞→-=-=∴-=其中

的二叉满树,并在j 2个叶子节点中取k 个节点,以这k 个节点为根节点,生成k 个深度为1的子树,于是得到了一个有 M k k j =-+22个叶子的二叉树,对此二叉树的叶子按Halfman 方法进行编码,即得到最优的二元即时码。 2)M M k j k j M k j M I 2log 212)1(1=+=??+?+?= 当且仅当k=0,即j M 2=时,M I 2log = 3.5 解: 不妨设i u ( i =…-2,-1,0,1,2, …) 取自字母表{1a ,2a …n a },设一阶转移概率为 ????????????nn n n n n P P P P P P P P P 2 12222111211,所以在当前码字j u 进行编码时,由k j a u =-1,对j u 可能的取值,依概率分布(kn k P P 1) 进行Halfman 编码,即是最佳压缩方案。 3.6 0.801 bit/sample 3.7 1) 7 6 bit/sample 2) P(1)= 72 P(2)=73 P(3)=72 如按无记忆信源进行编码,则根据信源所处的的1,2,3三个状态对应编码成00,1,01。 平均码长为:72×2+73×1+72×2=7 11 bit/sample 如果按马尔可夫信源进行编码: 状态1时:a →0, b →10, c →11 状态2时:a →0, b →1 状态3时:无需发任何码字 ∴平均码长: 76072)121121(73)241241121(72=?+?+??+?+?+?? bit/sample 3.8 x 22j I -+= 3.9 1) H(X) = -(plog p+qlog q ) bit/sample H(Y)= -(plog p+qlog q ) bit/sample

信息论基础及答案

《信息论基础》试卷第1页 《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞-∞ ?→∞ --?? ) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x - )时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或 1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此 时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

信息论基础》试卷(期末A卷

重庆邮电大学2007/2008学年2学期 《信息论基础》试卷(期末)(A卷)(半开卷) 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X,其概率分布为 123 x x x X 111 P 244 ?? ?? ? = ?? ? ?? ?? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则 每十个符号的平均信息量是 15bit。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log(b-a)bit/自由度;若放大器的最高频率为F,则单位时间内输出的最大信息量是 2Flog(b-a)bit/s. 5. 若某一信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵的最大值为1 log32e 2 π;与其 熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r(S))。 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础7答案

《信息论基础》参考答案 一、填空题(共15分,每空1分) 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为32log bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或( )22 2x f x σ-时,信源具有最大熵,其值为值21 log 22 e πσ。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。 (2)()() 1222 H X X H X =≥() ()12333H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础答案2

《信息论基础》答案 一、填空题(共15分,每空1分) 1、若一连续消息通过某放大器,该放大器输出的最大瞬时电压为b,最小瞬时电压为a。 若消息从放大器中输出,则该信源的绝对熵是无穷大;其能在每个自由度熵的最 大熵是log b-a 。 2、高斯白噪声信道是指信道噪声服从正态分布,且功率谱为常数。 3、若连续信源的平均功率为 5 W,则最大熵为1.2 Iog10 e ,达到最大值的条件是高 斯信道。 4、离散信源存在剩余度的原因是信源有记忆(或输岀符号之间存在相关性)和不 等概。 5、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 6、离散无记忆信源在进行无失真变长信源编码时,码字长度是变化的。根据信源符号 的统计特性,对概率大的符号用短码,对概率小的符号用长码,这样平均码长 就可以降低,从而提高编码效率。 7、八进制信源的最小熵为0 ,最大熵为3bit 。 8、一个事件发生概率为,则自信息量为3bit 。 9、在下面空格中选择填入数字符号“,,,”或“ <” H XY 二HY HXY HY H X 二、判断题(正确打",错误打X)(共5分,每小题1分) 1)离散无(")记忆等概信源的剩余度为0 。 2) 离散无记忆信源N次扩展源的熵是原信息熵的N倍(") 3) 互信息可正、可负、可为零。 (") 4) 信源的真正功率P 永远不会大于熵功率P ,即P P (X ) 5) 信道容量与信源输出符号的概率分布有关。 (X ) 、(5分)已知信源的概率密度函数p x如下图所示,求信源的相对熵

* p x 0.5 4 h x 2 p x log p x dx 1bit自由度 四、(15分)设一个离散无记忆信源的概率空间为P x 0.5 0.5 它们通过干扰信道,信道输出端的接收信号集为丫= 示。 试计算: (1)信源X中事件x的自信息量;(3分) (2)信源X的信息熵;(3分) (3)共熵H XY ; ( 3 分) (4)噪声熵H Y X ;(3分) (5)收到信息丫后获得的关于信源X的平均信息量。(1)I x11bit (2)H丄,丄1bit/符号 2 2,已知信道出书概率如下图所 (3 分)

信息论基础与编码课后题答案第三章

3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ???? =? ??? ???? ,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为516 61344P ???? =? ?????? ? ,求: (1)信源X 中事件1x 和2x 分别含有的自信息量; (2)收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3)信源X 和信宿Y 的信息熵; (4)信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5)接收到消息Y 后获得的平均互信息量(;)I X Y 。 解:(1)12()0.737,() 1.322I x bit I x bit == (2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-, 22(;)0.907I x y bit = (3)()(0.6,0.4)0.971/H X H bit symbol == ()(0.6,0.4)0.971/H Y H bit symbol == (4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol == (/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol = (5)(;)0.9710.7140.257/I X Y bit symbol =-= 3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。该信道的正 确传输概率为0.5,错误传输概率平均分布在其他三个字母上。验证在该信道上每个字母传输的平均信息量为0.21比特。 证明:信道传输矩阵为:

信息论基础1答案

信息论基础1答案

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为 123x x x X 111P 2 44?? ?? ?=?? ??? ?? , 其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是 ∞ ;其能在每个自由度熵的最大熵是log (b-a ) bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为

16w,其概率密度函数是高斯分布时,差熵的 最大值为1log32e π;与其熵相等的非高斯分布信2 源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限 (S))。 制为信源熵(或H(S)/logr= H r 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

无线通信技术实验一卷积码

实验二:卷积码 一、实验仪器: PC两台、USRP两台 二、实验目的: 1、了解grc仿真中的信号处理模块、流程图以及使用方法 2、了解卷积码的基本原理 3、了解GunRadio实现信道编码的方法 4、了解不同SNR对于误码率的影响 5、了解卷积码对误码率的影响 6、了解不同的卷积码对于误码率的影响 三、实验要求: 1.了解Grc的基本操作方法,要求仿真的流程中信道编码部分使用卷积编码 2.通过单机实验和GnuRadio+USRP的实验两种实验方式进行仿真 3.搭建有信道编码与无信道编码的Grc仿真模型 4.比较上述两种情况下的误码率,并且分析结果 5.比较不同的卷积码对于误码率的影响,并且分析结果。 四、实验原理: 卷积码将k个信息比特编码成n个比特,但k和n通常很小,特别适合以串行形式进行传输,时延小。与分组码不同,卷积码编码后的n 个码元不仅与当前段的k个信息有关,还与前面的N-1段信息有关,编码过程中互相关联的码元个数为nN。卷积码的纠错性能随N的增加而增大,而差错率随N的增加而指数下降。卷积码的纠错能力不仅与约束长度有关,还与采用的译码方式有关。 GRC提供译码方式是维特比译码,它是卷积码译码方式中非常经典的以及广泛使用的一种译码方式。该实验可以考察编码前后数据有什么

变化,译码后能不能恢复原来数据,通过Number Sink考察加噪声后误比特率怎么样,对性能有什么提高,并且划出BER图形。下面为卷积码的一般流程: 五、实验步骤及分析: 1、单机实验: 单机实验分成(2,1,3)码、无信道编码、(2,1,8)码三个部分进行。 (一)实验流程图: 首先,我们利用(2,1,3)卷积码进行信道编码,用DPSK进行调制,来进行单机实验,最终设计的流程图和参数如下图所示: 先是Vector Source,即信源,设置的数据是1,0,0,1,1。然后是Throttle限流模块。接下来是Packed to Unpacked模块,将pack成byte或short型的数据以unpacked型的数据输出。然后就是卷积码编码模块,这里需要找到(2,1,3)卷积码在电脑中的位置,再将路径设置到这个模块相应的位置中。接下来一个模块叫做Packet encoder,然后便是调制模块DPSK Mod,我们使用的便是DPSK调制。在噪声模块中设置噪声的大小为0.31,这个数字不能太大,否则就会是解码完全错误,也不能太小,否则误比特率几乎一直为零。

移动通信中的语音编码和信道编码

移动通信中的语音编码和信道编码 目录 摘要---------------------------------------------------2 前言---------------------------------------------------3 1 基础理论---------------------------------------------3 2 语音编码---------------------------------------------3 2.1 PHS系统的语音编码-------------------------------4 2.2 GSM系统的语音编码------------------------------4 2.3 IS95 CDMA系统的语音编码-------------------------4 2.4 语音编码比较-------------------------------------5 2.5 语音编码展望-------------------------------------5 3 信道编码----------------------------------------------6 3.1 GPRS的信道编码----------------------------------6 3.2 WCDMA的信道编码---------------------------------6 3.3 信道编码比较-------------------------------------7 3.4 编码速率对网络规划的影响-------------------------7

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑, 则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约 为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1, 即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位 二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概 率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验 概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷 积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

朱雪龙《应用信息论基础》习题答案

第二章习题参考答案 2.2证明: l(X;Y|Z) H(X|Z) H(X|YZ) H (XZ) H (Z) H (XYZ) H(YZ) H(X) H(Z |X) H(Z) H(XY) H (Z | XY) H (Y) H(Z|Y) [H(X) H(Y) H(XY)] H(Z|X) H(Z) H (Z | XY) H(Z |Y) I(X;Y) H(Z|X) H(Z) H (Z | XY) H(Z | Y) 0 H(Z) H(Z) H (Z | XY) H(Z) H(Z) H (Z | XY) 1 H (Z) H (Z | XY),即 H(Z) 1 H (Z | XY) 又 H(Z) 1,H(Z |XY) 0,故 H(Z) 1,H (Z | XY) 0 同理,可推出H(X) 1;H(Y) 1; H (XYZ) H(XY) H (Z | XY) H(X) H (Y) H (Z | XY) 1 1 0 2 2.3 1) H(X)= 0.918 bit , H(Y) = 0.918 bit 2) H(X|Y) 2 = bit H(Y|X)= 2 -bit , H(X|Z)= 3 2 — bit 3 3) I(X;Y): =0.251 bit , H(XYZ)= =1.585 bit 2.4证明:(1)根据熵的可加性,可直接得到 ,a k 1), H(Y) log(k 1),故原式得证 2.5考虑如下系统: 又 l(X;Y|Z) = H(X|Z) — H(X|YZ) = H(X|Z) = 1 bit 1 不妨设 P(Z=0) = P(Z=1)= 2 设 P(X=0,Y=0|Z=0) = p P(X=1,Y=1|Z=0) = 1 — p 1 ~[ Plogp + (1 — p)log (1 — p)] -[qlogq + (1 — q)log(1 — q)] =11 满足上式的p 、q 可取:p = ; q = 2.1 In 2 x nat IOg 2 bi t P(X=0,Y=1|Z=1) = q P(X=1,Y=0|Z=1) = 1 — q ⑵ Y 的值取自(31,32, 假设输入X 、Y 是相互独立 的,则满足 I(X;Y) = 0 则 H(X|Z)=

信息论基础理论与应用考试题及答案.doc

信息论基础理论与应用考试题 一、填空题(每题2分,共20分) 1.信息论研究的ri的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)、(有效性)、保密性和认证性,使信息传输系统达到最优化。(考点:信息论的研究目的) 2.电视屏上约有500X600=3X 1O,个格点,按每点有10个不同的灰度等级考虑, 则可组成IO’加'个不同的画面。按等概计算,平均每个画面可提供的信息量约为(I()6bit/画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为(加性信道)和(乘性信道)。(考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q二32。若r=2, N=l, 即对信源S的逐个符号进行二元编码,则每个英文电报符号至少要用(5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积也。 (考点:纠错码的分类) 7.码C=((0, 0, 0, 0), (0, 1, 0, 1), (0, 1, 1, 0), (0, 0, 1, 1)}是(Gb 2)?线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即 MB | q

(H(X) = E log—— =-£p(%)logP(q))。 P(q)/=i ■ ■ ■ (考点:平均信息量的定义) 9.对于一个(n,k)分组码,其最小距离为d,那么,若能纠正t个随机错误,同时能检测e (eNt)个随机错误,则要求(dNt+e+1 )。 (考点:线性分组码的纠检错能力概念) 10.和离散信道一?样,对于固定的连续信道和波形信道都有一?个最大的信息传输速率,称之为(信道容量)。 (考点:连续信道和波形信道的信道容量) 二、判断题(每题2分,共10分) 1.信源剩余度的大小能很好地反映离散信源输出的符号序列中符号之间依赖关系的强弱,剩余度越大,表示信源的实际嫡越小。(对)(考点:信源剩余度的基本概念) 2.信道的噪声是有色噪声,称此信道为有色噪声信道,一?般有色噪声信道都是无 记忆信道。(错)(考点:有色噪声信道的概念) 3.若一组码中所有码字都不相同,即所有信源符号映射到不同的码符号序列,则 称此码为非奇异码。(对)(考点:非奇异码的基本概念) 4.在一个二元信道的n次无记忆扩展信道中,输入端有2。个符号序列可以作为消息。(对) 5.卷积码的纠错能力随着约束长度的增加而增大,-?般情况下卷积码的纠错能力 劣于分组码。(错)(考点:卷积码的纠错能力) 三、名词解释(每题3分,共12分) 1 .信源编码

信息论基础及答案

《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞ -∞?→∞ --??) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x -)时,信源具有最大熵,其值为 0.6155hart(或1.625bit 或1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同 的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

信道编码基础知识

信道编码基础知识培训讲义 信道编码,也叫差错控制编码,是所有现代通信系统的基石。几十年来,信道编码技术不断逼近香农极限,波澜壮阔般推动着人类通信迈过一个又一个顶峰。5G到来,我们还能突破自我,再创通信奇迹吗? 所谓信道编码,就是在发送端对原数据添加冗余信息,这些冗余信息是和原数据相关的,再在接收端根据这种相关性来检测和纠正传输过程产生的差错。这些加入的冗余信息就是纠错码,用它来对抗传输过程的干扰。

1948年,现代信息论的奠基人香农发表了《通信的数学理论》,标志着信息与编码理论这一学科的创立。根据香农定理,要想在一个带宽确定而存在噪声的信道里可靠地传送信号,无非有两种途径:加大信噪比或在信号编码中加入附加的纠错码。这就像在嘈杂的酒吧里,酒喝完了,你还想来一打,要想让服务员听到,你就得提高嗓门(信噪比),反复吆喝(附加的冗余信号)。 但是,香农虽然指出了可以通过差错控制码在信息传输速率不大于信道容量的前提下实现可靠通信,但却没有给出具体实现差错控制编码的方法。人类在信道编码上的第一次突破发生在1949年。R.Hamming和M.Golay提出了第一个实用的差错控制编码方案。受雇于贝尔实验室的数学家R.Hamming将输入数据每4个比特分为一组,然后通过计算这些信息比特的线性组合来得到3个校验比特,然后将得到的7个比特送入计算机。计算机按照一定的原则读取这些码字,通过采用一定的算法,不仅能够检测到是否有错误发生,同时还可以找到发生单个比特错误的比特的位置,该码可以纠正7个比特中所发生的单个比特错误。这个编码方法就是分组码的基本思想,Hamming提出的编码方案后来被命名为汉明码。汉明码的编码效率比较低,它每4个比特编码就需要3个比特的冗余校验比特。另外,在一个码组中只能纠正单个的比特错误。M.Golay先生研究了汉明码的缺点,提出了Golay 码。Golay码分为二元Golay码和三元Golay码,前者将信息比特每12个分为一组,编码生成11个冗余校验比特,相应的译码算法可以纠正3个错误;后者的操作对象是三元而非二元数字,三元Golay码将每6个三元符号分为一组,编码生成5个冗余校验三元符号,这样由11个三元符号组成的三元Golay码码字可以纠正2个错误。Golay码曾应用于NASA的旅行者1号(Voyager 1),将成百张木星和土星的彩色照片带回地球。在接下来的10年里,无线通信性能简直是跳跃式的发展,这主要归功于卷积码的发明。卷积码是Elias在1955年提出的。卷积码与分组码的不同在于:它充分利用了各个信息块之间的相关性。通常卷积码记为(n,k,N)码。卷积码的编码过程是连续进行的,依次连续将每k个信息元输入编码器,得到n个码元,得到的码元中的检验元不仅与本码的信息元有关,还与以前时刻输入到编码器的信息元(反映在编码寄存器的内容上)有关。同样,在卷积码的译码过程中,不仅要从本码中提取译码信息,还要充分利用以前和以后时刻收到的码组。从这些码组中提取译码相关信息,,而且译码也是可以连续进行的,这样可以保证卷积码的译码延时相对比较小。通常,在系统条件相同的条件下,在达到相同译码性能时,卷积码的信息块长度和码字长度都要比分组码的信息块长度和码字长度小,相应译码复杂性也小一些。很明显,在不到10年的时间里,通信编码技术的发展是飞跃式的,直到遇到了瓶颈。根据香农前辈的指示,要提高信号编码效率达到信道容量,就要使编码的分段尽可能加长而且使信息的编码尽可能随机。但是,这带来的困难是计算机科学里经常碰到的“计算复杂性”问题。还好,这个世界有一个神奇的摩尔定律。得益于摩尔定律,编码技术在一定程度上解决了计算复杂性和功耗问题。而随着摩尔

信息论与编码习题1及答案1

一、(11’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信 源的信源熵H(X) 等于2.5,对信源进 行等长的无失真二 进制编码,则编码 长度至少为 3 。 (6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。 (8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于), 则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。 (9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关 二、(9)判断题 (1)信息就是一种消息。() (2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。() (3)概率大的事件自信息量大。() (4)互信息量可正、可负亦可为零。() (5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。 ()

(6) 对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。 ( ) (7) 非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。 ( ) (8) 信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造的是最佳码。 ( ) (9)信息率失真函数R(D)是关于平均失真度D 的上凸函数. ( ) 三、(5)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的, 而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A 表示“大学生”这一事件,B 表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (2分) 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (2分) I(A|B)=-log0.375=1.42bit (1分) 四、(5)证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY) 证明: ()()() () ()()()() ()() Y X H X H y x p y x p x p y x p x p y x p y x p Y X I X X Y j i j i Y i j i X Y i j i j i -=??? ???---==∑∑∑∑∑∑log log log ; (2分) 同理 ()()() X Y H Y H Y X I -=; (1分) 则

数字通信_信道编码

信道编码 实验人:学号:07302443 一、实验目的 1、加深对信道编码的理解,了解信道编码的作用 2、进一步掌握基带信号检测和判决和最佳判决理论 3、熟悉至少一种信道编码的编码及译码过程,分析信道编码后的误 码率的变化 4、掌握信噪比和误码率之间的关系和相互影响 5、学习使用MATLAB,C/C++等进行实验仿真 二、实验要求 1、用MATLAB,,C/C++等语言在计算机进行通信系统模拟。 2、提交完整源程序以及结果图,并要求结合课堂知识根据结果推出结论 (每个设计报告10页以上)。 3、不得抄袭。 三、实验内容 第一部分:利用线性分组码或卷积码进行信道编码 仿真条件: 1 信道输入:s(t), s(t)可以取为MPSK 信号 2 考虑常数AWGN信道 3 噪声设为n(t) 4 信道输出为 y(t)=ks(t)+n(t) 仿真要求: 1 利用线性分组码或者卷积码进行信道编码 2 画出SER VS SNR的结果图,SNR取0-25dB 第二部分:设计交织+纠错结合的信道编码 仿真条件: 1 信道输入信号s(t);s(t)可以取为MPSK 信号,s(t)的抽样速率为10kb/s. 2 考虑理想化衰落信道,如图1所示 3 噪声设为n(t)

4 信道输出为 y(t)=k(t)*s(t)+n(t) 仿真要求: 1 设计交织+纠错结合的信道编码。 2 画出SER VS SNR的结果图,SNR取0-25dB 3 比较有无交织在SNR变化情况下的结果。 4 改变衰落时间t的值,取t=2ms, t=5ms,观察并画出结果。 图一理想化衰落信道示意图 四、实验原理 第一部分:线性分组码 线性分组码是一类奇偶校验码,它可以由前面提到的(n,k)形式表示。编码器将一个k比特的信息分组(信息矢量)转变成一个更长的由给定元素符号集组成的n比特编码分组(编码矢量)。 汉明(7,4)码是一种线性分组码,使用生成矩阵实现从信息矢量到编码矢量的转换,采用监督矩阵和伴随式的检测实现解码和检错纠错。 第二部分:卷积编码 卷积码由3个整数n,k,K描述,这里k/n也表示分组码的编码效率(每编码比特所含的信息);K是约束长度,表示在编码移位寄存器中k元组的级数。卷积码的编码器有记忆性,卷积编码过程产生的n元组,不仅是输入k元组的函数,也是前面K-1个输入k元组的函数。原理如图所示:

相关文档
最新文档