信息论复习提纲

合集下载

信息论复习提纲

信息论复习提纲

信息论复习提纲第一章1、信息的概念。

信息是事物运动状态或存在方式的不确定性的描述。

2、信息论的研究对象、研究目的。

对象:通信系统模型。

目的:找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统最优化。

3、通信系统模型的组成,及各部分的功能(1)信息源:产生消息的源,消息可以是文字,语言,图像。

可以离散,可以连续。

随机发生。

(2)编码器:信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性(3)信道:信号从发端传到收端的介质(4)译码器:译码就是把信道输出(已叠加了干扰)的编码信号进行反变换。

(5)信宿:信宿是消息传送的对象,即接受消息的人或机器。

(6)干扰源:系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声,主要研究的是统计特性。

4、消息,信号,信息三者之间的关系信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。

信号---则是抽象信息在物理层表达的外延;消息---则是抽象信息在数学层表达的外延第二章1、信源的分类,着重单符号信源。

信源的概率空间的构成形式。

单消息(符号)信源,离散信源,连续变量信源,平稳信源,无/有记忆信源,马尔可夫信源,随机波形信源。

单消息(符号)信源:单消息(符号)信源--离散信源单消息(符号)信源--连续信源2、自信息的计算及物理含义,单位与底数的关系,含义。

计算:含义:当事件ai发生以前,表示事件ai发生的不确定性当事件ai发生以后表示事件ai所含有(所提供)的信息量单位与底数的关系:通信与信息中最常用的是以2为底,这时单位为比特(bit);理论推导中用以e为底较方便,这时单位为奈特(Nat);工程上用以10为底较方便,这时单位为哈特(Hart)。

它们之间可以引用对数换底公式进行互换。

信息论复习资料

信息论复习资料

8、 解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 答:最小错误概率译码准则下,将接收序列译为后验概率最大时所对应的码字。 最大似然译码准则下,将接收 序列译为信道传递概率最大时所对应的码字。 最小距离译码准则下,将接收序列译为与其距离最小的码字。 三者关系为:输入为等概率分布时,最大似然译码准则等效于最小错误概率译码准则。在二元对称无记忆信道 中,最小距离译码准则等效于最大似然译码准则。 9、 保真度准则为:平均失真度不大于允许的失真度。 10、限失真信源编码:有失真信源编码的中心任务,在允许的失真范围内把编码的信息率压缩到最小。
4、线性分组码不具有的性质是(C)
1 / 2 1 / 4 [P XY ] 1 / 12 1 / 6
; [ PY ] [7 / 12 5 / 12] ;
; H (Y ) 7 / 12 log 2 (12 / 7) 5 / 12 log 2 (12 / 5)
I ( X ; Y ) H (Y ) H (Y | X )
对应的剩余度为
1 1
H1 0.811 1 0.189 H0 1 1 1 1 log log 2 2 2 2 H2 0.681 1 0.319 H0 1 1 1 1 log log 2 2 2 2
H ( p1 , p2 , , pL 1 , pL ) pL H (
并说明等式的物理意义
q q1 q2 , , , m ) pL p L pL
14、一阶齐次马尔可夫信源消息集
X∈{a1,a2,a3} ,状态集S∈{S1,S2,S3}且令 Si=ai,
1 4 1 4 1 2 P(aj / S i ) 1 3 1 3 1 3 2 3 1 3 0

复习提纲

复习提纲

复习提纲第一章概述提纲:I.什么是信息II.什么是信息论需掌握的问题:1.信息的定义是什么(有通俗定义、广义定义、Shannon信息论定义)2.它们三个定义的区别3.什么是信息论,它研究范围的是什么4.狭义信息论的研究内容5.画出通信系统模型图,并说明每一部分的作用。

第二、三章信源熵提纲:I.信源的数学模型及分类II.自信息量III.互信息量IV.熵1.定义2.含义3.联合熵、条件熵4.性质(9个)V.平均互信息1.定义2.含义3.联合平均互信息、条件平均互信息4.性质(6个)VI.离散信源的数学模型及分类1.随机过程介绍2.数学模型3.分类VII.无记忆多符号离散平稳信源VIII.马尔可夫信源1.m阶马尔可夫信源2.含义IX.信源相关性和冗余度1.信源冗余度2.熵的相对率需掌握的问题:1.信源的数学模型是什么2.信源如何分类,不同信源类别的区别是什么3.不同类别信源的数学描述是什么4.自信息量的大小如何计算(公式)5.自信息量公式中对数的底数不同单位分别是什么(单位的中英文名称)6.自信息量的含义是什么(它是对什么量的度量)7.联合自信息量、条件自信息量、自信息量之间的关系是什么8.自信息的性质是什么说明各个性质的含义。

9.互信息量的大小如何计算(公式)10.互信息量的含义是什么互信息量在通信系统模型中描述哪部分的信息量11.联合互信息量、条件互信息量、互信息量之间的关系是什么12.互信息的性质是什么13.熵的表达式是什么怎么推导的14.熵的单位是什么15.熵的含义是什么16.单符号离散信源最大熵是多少信源概率如何分布时能达到17.熵的性质是什么(能够证明,并说明每个性质的含义)18.联合熵、条件熵和熵的关系。

19.平均互信息的定义是什么平均互信息的表达式怎么推导20.信道疑义度、损失熵和噪声熵的含义21.平均互信息的性质(能够证明,并说明每个性质的含义)22.联合平均互信息、条件平均互信息和平均互信息的关系23.自信息量、熵、互信息、平均互信息之间的关系24.离散信源的数学模型如何描述25.离散信源如何分类26.无记忆多符号离散平稳信源的熵如何计算27.有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵的关系和性质。

信息论考试题纲

信息论考试题纲

2.信源有 4 个消息,对其进行二进制编码,问 (1)若信源等概分布 进制代码? (2)若信源发布为
x1 x2 x3 x4 X 0.25 0.25 0.25 0.25 ,则每个消息至少需要几个二 q( X )
X x1 x2 x3 x4 ,则如何编码才能得到紧致码? q( X ) 1/ 2 1/ 4 1/ 8 1/ 8
பைடு நூலகம்
3. 比较最大后验概率译码准则与最大似然译码规则异同。 4. 阐述码的最小距离定义,以及其与码的抗干扰能力的关系。
信源有4个消息对其进行二进制编码问x1x2?x???1若信源等概分布??qx???025025???x3025x4??则每个消息至少需要几个二025?进制代码
信息熵 码的重量 等长码 离散无记忆信道
1.设信道输入符号集为 {x1 , x2 , , xk } ,则平均每个信道输入符号所能携带的最大信息量为 多少?

信息论复习纲领

信息论复习纲领

第二章知识要点: 1.自信息量:(),)log ()i i i i p x p x =-设事件x 的概率为那么,他的自信息定义为I(x上定义式取对数的底为2,信息量的单位为比特 (bit); 上定义式取对数的底为e ,信息量的单位为奈特 (nat);上定义式取对数的底为10,信息量的单位为哈脱来(haitely---hat)。

2.互信息量:(|)(;)log ()11loglog()(|)i j i j i i i j p x y I x y p x p x p x y ==-3.平均自信息量(熵)1()[()][log ()]()log ()qi i i i i H X E I x E p x p x p x ===-=-∑3’.熵函数:12121X ,,...,()()(,,...,)log q qq i ii p p p H X H p H p p p p p ===-∑因为随机变量集的熵H(X)只是其概率分布的函数,所以熵函数又可记为4.条件熵:(|)()(|)()log (|)XYXYH Y X p xy I y x p xy p y x ==-∑∑5.联合熵(,)()()()log ()i j i j XYi j i j XYH X Y p x y I x y p x y p x y ==-∑∑6.平均互信息量(;)()(;)(|)()log()()(;)j j Yi j i j XYi i j i j XYI X Y p y I X y p x y p x y p x p x y I x y ===∑∑∑2.9 如有6行8列的棋型方格,若有2个质点A 和B ,分别以等概率落入任一方格内,且它们的坐标分别为(X A ,Y A )、(X B ,Y B ),但A ,B 不能落入同一方格内。

试求: (1)若仅有质点A ,求A 落入任一个方格的平均自信息量是多少? (2)若已知A 已人,求B 落人的平均自信息量。

(完整word版)信息论期末复习资料

(完整word版)信息论期末复习资料

书中:1.信息科学,材料科学,能源科学仪器被称为当代的“三大支柱”。

2.带宽与数据传输速率信道带宽与数据传输速率的关系可以奈奎斯特(Nyquist)准则与香农(Shanon)定律描述。

奈奎斯特准则指出:如果间隔为π/ω(ω=2πf),通过理想通信信道传输窄脉冲信号,则前后码元之间不产生相互窜扰。

因此,对于二进制数据信号的最大数据传输速率Rmax 与通信信道带宽B (B=f,单位Hz)的关系可以写为:Rmax =2.f(bps);对于二进制数据若信道带宽B=f=3000Hz ,则最大数据传输速率为6000bps 。

香农定理则描述了有限带宽、有随机热噪声信道的最大传输速率与信道带宽、信噪比之间的关系。

香农定理指出:在有随机热噪声的信道上传输数据信号时,数据传输速率Rmax 与信道带宽B 、信噪比S/N 的关系为: Rmax =B.log2(1+S/N)3.自信息量的性质:非负性、必然事件信息量为0、不可能事件信息量为无穷、信息量是概率的单调递减函数。

4.当X 和Y 相互独立时,互信息为0.5.信源熵表征信源的平均不确定度,平均自信息量是消除信源不确定度所需要的信息的量度。

6信源熵H(X)与信息率R 和信道容量C 的关系:不论何种信道,只要信息率R 小鱼信道容量C ,总能找到一种编码,能在信道上以任意小的错误概率和任意接近于C 的传输率来传送信息。

反之,若R>C,则传输总要产生失真。

又由无失真信源编码定理可知,要做到几乎无失真信源编码,信息率R 必须大于信源熵H (X )。

故三者的关系为:H(x)<=R<=C7.保真度准则下的信源编码定理:即译码平均失真度大于允许失真度。

8.香农三个基本编码定理:无失真信源编码定理、信道编码定理和限失真信源编码定理。

三个基本概念:信源熵、信道容量和信息率失真函数。

9.信源编码、信道编码和安全编码信源编码是以提高通信有效性为目的的编码。

通常通过压缩信源的沉余度来实现。

信息论与编码复习提纲

信息论与编码复习提纲

baa aba aab
011 010 11
3 3 2
aaa
00
码字
2
码长
root
方法
码字 码长
00 2
11 2
010 3
011 1000 1001 1010 1011 3 4 4 4 4
码字平均长度: LN=2.726; 信源符号平均编码长度:
信源信息熵: H(X)=-0.3log0.3-0.7log0.7=0.881
(3)平均符号熵:
HN =H(X1X2……XN) / N
第一部分、信息论基础
1.1 信源的信息理论
(4)序列信息熵的性质:
《1》条件熵不大于无条件熵,强条件熵不大于弱
条件熵:H(X1) ≥ H(X2|X1) ≥ H(X3|X1X2) ≥ …
…… ≥H (XN|X1X2……XN-1) 《2》条件熵不大于同阶的平均符号熵: HN ≥H (XN|X1X2……XN-1) 《3》序列越长,平均每个符号的信息熵就越小:
H(XY) 计算公式: I (X;Y) = H(X) – H(X|Y)= H(Y) – H(Y|X)= H(X) +H(Y)–H(XY)
第一部分、信息论基础
1.2 信道的信息理论
[例2]已知信源先验概率p(x)={0.7, 0.3},信道传输
矩阵 ;试计算各信息熵和互信息。
解:(1)信源熵: H(X)= -0.7log20.7 –0.3log20.3
H1 ≥ H2 ≥ H3 ≥ …… ≥H N
总之:H0 > H1 ≥ H2 ≥ H3 ≥ …… ≥HN ≥ H∞
(无记忆信源取等号。)
第一部分、信息论基础
1.1 信源的信息理论

信息论 总复习

信息论 总复习
P( x)
等概率分布
设 B {b1,b2 , , bs } 等概率分布, 应由P ( x )保证
(3)对称离散信道容量
当 P( x) 等概率分布时
' C log s H ( p1',p2, ,ps' ) bit / 符号
(4)准对称离散信道容量
C log r H ( p ,p , ,p )
3、有噪信道编码定理 定理6.5 有噪信道编码逆定理
设离散无记忆信道 [ X , P ( y | x ), Y ], 其 信道容量为C。当信息传输率 R>C , 则无论码长n多长,总也找不到一种 编码(M 2nR,n) ,使译码错误概率任 意小。
第9章信道的纠错编码
1、线性分组码 生成矩阵G、校验矩阵H、伴随式译码 2、循环码
2、最大似然译码准则
则选择译码函数 F (b ) a 的条件应满足
j
P ( b j | a) P ( b j | a i )
PE P(ai )P
X
(i ) e
3、有噪信道编码定理 定理6.4 (有噪信道编码定理) P 设离散无记忆信道 [ X , P ( y | x ), Y ] ,( y | x ) 为其信道传递概率,其信道容量为C。当 信息传输率R<C 时;只要码长n足够长, M ( 2 nR ) 总可以在输入符号集中找到 ( 2 nR , n) 和相应的 个码字组成的一组码 译码规则,使译码的错误概率任意 小 ( PE 0) 。
N
称 H 为平稳信源的极限熵或熵率。
第三章离散信道及其信道容量
1、单符号离散信道的数学模型 a1 b1 a2 b2
X

ar
P (b j | a i )
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第一章
1、信息的概念。

信息是事物运动状态或存在方式的不确定性的描述。

2、信息论的研究对象、研究目的。

对象:通信系统模型。

目的:找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统最优化。

3、通信系统模型的组成,及各部分的功能
(1)信息源:产生消息的源,消息可以是文字,语言,图像。

可以离散,可以连续。

随机发生。

(2)编码器:
信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性
信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性(3)信道:信号从发端传到收端的介质
(4)译码器:译码就是把信道输出(已叠加了干扰)的编码信号进行反变换。

(5)信宿:信宿是消息传送的对象,即接受消息的人或机器。

(6)干扰源:系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声,主要研究的是统计特性。

4、消息,信号,信息三者之间的关系
信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。

信号---则是抽象信息在物理层表达的外延;
消息---则是抽象信息在数学层表达的外延
第二章
1、信源的分类,着重单符号信源。

信源的概率空间的构成形式。

单消息(符号)信源,离散信源,连续变量信源,平稳信源,无/有记忆信源,马尔可夫信源,随机波形信源。

单消息(符号)信源:
单消息(符号)信源--离散信源
单消息(符号)信源--连续信源
2、自信息的计算及物理含义,单位与底数的关系,含义。

计算:
含义:当事件ai发生以前,表示事件ai发生的不确定性
当事件ai发生以后表示事件ai所含有(所提供)的信息量
单位与底数的关系:
通信与信息中最常用的是以2为底,这时单位为比特(bit);
理论推导中用以e为底较方便,这时单位为奈特(Nat);
工程上用以10为底较方便,这时单位为哈特(Hart)。

它们之间可以引用对数换底公式进行互换。

比如:
1 bit = 0.693 Nat = 0.301 Hart
3、互信息的计算。

ex :设信源发出消息,通过信道后信宿收到,则互信息量的表达式
4、 离散单符号信源熵的计算,注意单位,熵的物理含义。

计算:
单位:(Bit/符号) 物理含义:
熵是随机变量的随机性的描述。

熵是信源输出消息前随机变量平均不确定性的描述
信源熵H(X)是表示信源输出后每个消息/符号所提供的平均信息量
5、信源熵的性质,着重非负性(会证明),对称性,最大离散熵定理,强可加性,上凸性。

(1) 非负性 证明一:
而:
故: (取底数大于1时) 所以:
证明二:
有: 或: 所以:
(2) 对称性
① 定义:当变量p(x1),p(x2),…,p(xn) 的顺序任意互换时,熵函数的值不变,即
② 含义:该性质说明熵只与随机变量的总体结构有关,与信源的总体统计特性有关。

如果某些信源的统计特性相同(含有的符号数和概率分布相同),那么这些信源的熵就相同。

(3) 最大离散熵定理
定理:离散无记忆信源输出N 个不同的信息符号,当且仅当各个符号出现概率相等时(即p(xi)=1/N),熵最大。

H[p(x1),p(x2),…,p(xN) ]≤H(1/N,1/N,…,1/N)=log2N
结论:出现任何一个符号的可能性相等时,信源的平均不确定性最大。


=-=N
n n
n N p p p p p H 121log ),...,,(∑=-=N
n
n n N p p p p p H 1
21log ),...,,(1
0≤≤n
p 0
log ≤n p 0)(≥P H 101>>>∀x x 1log
-≤x x x
x
-≥1log 10
)1(log )(1
1
1≥-≥=∑
∑==n N
n n p N n n p p p P H n
(4) 扩展性 (5) 确定性 (6) 可加性
H(XY)=H(X)+H(Y/X) H(XY)=H(Y)+H(X/Y)
(7) 上凸性
设有一个多元矢量函数 f(x1,x2,…,xn)=f(X ),对任一小于1的正数α(0<α<1)及f 的定义域中任意两个矢量X ,Y ,
若f[αX +(1-α)Y ]>αf(X )+(1-α)f(Y ),则称f 为严格上凸函数。

设P ,Q 为两组归一的概率矢量:
P =[p(x1),p(x2), …,p(xn)],Q=[p(y1),p(y2), …,p(yn)]
0≤p(xi)≤1,0≤p(yi)≤1,
有:
H[αP +(1-α)Q ]>αH(P )+(1-α)H(Q )
6、什么是离散无记忆信源X 的N 次扩展信源?扩展信源的符号个数
定义:一个离散无记忆信源X ,其样本空间为{a1,a2,…,aq},信源输出的消息可以用一组组长度为N 的序列表示。

此时信源X 可等效成一个新信源XN=(X1,X2,…,XN ),其中的每个分量Xi 都是随机变量,都取于X ,分量之间统计独立,这样的新信源就是离散无记忆信源X 的N 次扩展信源。

结论:离散无记忆信源X 的N 次扩展信源的熵等于离散信源x 的熵的N 倍。

7、某一二维离散无记忆平稳信源:
联合概率:
8、联合熵,条件熵之间的关系: H(X1X2) = H(X1)+ H(X2/X1)
)()(X NH X H N =⎥
⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡)(),(),(,,
)(2121q q a P a P a P a a a x P X )(j i a a P ∑∑
==-=q i q
j j i j i a a P a a P X X H 112
1)(log )()(
⏹求联合熵H(X1X2)
⏹求条件熵H(X2/X1)
9、剩余度与信源输出的符号序列的依赖程度之间的关系。

信源编码是通过减小剩余度来提高有效性的。

剩余度可以衡量信源输出序列中符号间的依赖程度,也表明了信源可压缩的程度。

剩余度r越大,表示信源的实际熵越小,即表明信源符号间的依赖关系越强。

第三章 离散信道
1、信道的分类,着重单符号信道,离散信道,无噪信道,N 次扩展信道 (1) 根据输入、输出端用户的个数
单用户信道——输入、输端出均只有一个用户
多用户信道——输入、输出端至少有一端包含两个以上用户
(2) 根据输入、输出端的关联
无反馈信道——输出端无信号反馈到输入端 反馈信道 ——输出端的信号反馈到输入端
(3) 根据信道的参数与时间的关系
固定参数信道——参数不随时间变化而改变 时变参数信道——参数随时间变化而变化
(4) 根据输入、输出随机变量的个数
单符号信道——输入、输出均用随机变量表示 多符号信道——输入、输出用随机矢量表示
(5)根据输入、输出随机信号特点
离散信道——输入、输出随机序列均离散取值 连续信道——输入、输出随机序列均连续取值 半离散(连续)信道——一为离散,另一为连续
2、信道的三种数学模型:图示法,信道矩阵法
3、单符号离散信道的传递概率;二元对称信道、二元删除的数学模型,传递概率矩阵的特点。

概率:
模型:
二者共同描述一个二维离散平稳信源。

X Y ]
),(,[Y x y P X
)()()(i j i j a b P a x b y P x y P ====信道
特点:
传递矩阵中每一行之和等于1。

4、单符号离散信道的各概率关系
5、信道疑义度的计算,平均互信息的计算,及平均互信息与各熵之间的关系(数
学公式和图示两种描述),平均互信息的物理含义
信道疑义度
平均互信息与各熵之间的关系
I(X;Y)=H(X)-H(X/Y) =H(X)+H(Y)-H(XY) =H(Y)-H(Y/X)
平均互信息的物理含义
①观察者站在输出端
②观察者站在输入端
③观察者站在通信系统总体立场上
6、无噪无损信道,全损信道的平均互信息的取值,信道的输入输出信源的熵值
7、平均互信息的性质
②对称性
I(X;Y)= I(Y;X)
②非负性
即I(X;Y)≥0,当且仅当X和Y相互独立,即p(x i y j)= p(x i) p(y j)
I(X;Y)=0
③极值性
I(X;Y)≤H(X) I(Y;X)≤H(Y)
③凸函数性
平均互信息量I(X;Y)是输入信源概率分布p(xi)的上凸函数
平均互信息量I(X;Y)是输入转移概率分布p(yj /xi)的下凸函数
8、信道容量的与平均互信息的关系。

信道的信息传输率R(信道中平均每个符号所能传送的信息量):就是平均互信息 R=I(X;Y)。

9、无噪无损信道,有噪无损信道,无噪有损信道的信道容量的计算。

10、会判断强对称离散信道,对称离散信道,并会计算其信道容量。

相关文档
最新文档