信息论与编码复习重点整理(1页版)

合集下载

信息论与编码期末复习篇

信息论与编码期末复习篇

平均信息量。它不是指人们可以获得多少信息;而是指客观存在
多少信息,因而数学关系仅是平均不确定度的量。
而连续信源的相对熵,则是指相对平均不定度。
HC (X ) p(x) log p(x)dx
RX
课程复习大纲
➢ 熵函数的性质 (指离散熵)
1. 对称性: H ( p1, p2,K , pn ) H ( p2, p1, p3 K , pn ) 2. 非负性: H (X ) 0
r

C loga
a
Aj

j
迭代算法

连续信道
5
高斯信道:
C

1 2
log(1
Pwi

2 n
)
限时限频限功率 加性高斯白噪声信道
信道的容量
C L log(1 PS / N0 ) L log(1 PS ) WT log(1 PS )
2
2W 2 2
各种熵之间的关系
名称
无 条 件 熵
条 件 熵 条 件 熵 联 合 熵 交 互 熵
符号
H(X) H (Y )
H(X /Y) H (Y / X )
H(XY) H(YX)
I (X ;Y ) I (Y; X )
关系
H(X) H(X /Y) H(X /Y) I(X;Y)
H (X ) H (XY) H (Y / X )
图示

Y
X
Y
X
Y
X
Y
X
Y
X
Y
熵 、互信息
➢ 冗余度
R 1 H Hm
or R 1 Hm H0
理解两种冗余度的物理意义。

[信息论与编码]知识点总结

[信息论与编码]知识点总结

[信息论与编码]知识点总结2021/12/02 from Xwhite这个是预习完之后,感觉应该掌握的⼀些知识的总结。

总共分成四个⼤部分吧信息量与信源熵 公式背住,然后套公式,冗余度的概念信道和信道容量 概念,互信息的计算,简单信道容量的计算信源编码 概念,定长编码,变长编码,哈夫曼编码(应该是必考),⾹农编码信道编码 挺难的,编码定理得看,纠错编译码的概念看看就⾏,线性分组码必会,循环码,汉明码。

卷积码应该不考知识点总结第⼀章的⼀些基本概念看书就完了,⽐如信息、消息、通信模型等。

信息量与信源熵背熟!背熟!背熟!因为是知识点总结,所以基本只给出公式,想加深了解可以看课本,当然也可以看看本博客的⽂章先验概率:⽐如,考完试你估算⾃⼰及格的概率是50%,这就是先验概率,你及格的概率。

后验概率:⽐如,你估算完之后,你找个最差的同学⼀问,他说他能及格,也就是在你已知他可能及格的条件下你及格的概率,就是后验概率。

总结如果做题过程中,题⽬问的是单个符号的⾃信息量,那么我们就⽤以下公式。

如果题⽬问的是离散信源的信息量,或者熵,就⽤以下公式。

各概念之间的关系补充⼀些概念我们从信息量的传输⾓度来看通信模型信源:发出信息量H(X)——>信道:信道中损失的信息量H(X|Y)——>信宿:接收端获得的信息量I(X;Y) H(X|Y):疑义度,也可以叫损失熵,表⽰由于信道上存在⼲扰和噪声⽽损失掉的平均信息量。

H(Y|X):噪声熵全损信道:⼲扰很⼤,难以从Y中提取X的有效信息,信源发出的所有信息都损失在信道中I(X;Y)=0 ⽐如:加密编码⽆损信道:没有⼲扰,接收端能完全收到信源发出的信息。

I(X;Y)=H(X)冗余度概念看看书。

想要对这⾥的深⼊理解可以看⼀下课本或者看⼀下博客中离散信道的⽂章。

信道和信道容量信道的概念请⾃⾏看书记忆。

总结信源编码定长码:若⼀组码中所有码字的码长相同,则称为定长码变长码:若⼀组码中所有码字的码长各不相同,则称为变长码奇异码:若⼀组码中存在相同的码字,则称为奇异码。

信息论与编码复习提纲

信息论与编码复习提纲

• 平均失真度
D = E[d(ai , bj )] = ∑∑ p(ai ) p(bj / ai )d(ai , bj )
i=1 j =1
n
m
信息率失真函数
• 信息率失真函数定义
R(D) = m in
p(bj / ai )∈P D
I ( X;Y)
• 信息率失真函数的定义域
Dmin = ∑ p ( xi ) mind ( xi , y j ) D max = min j
i =1 n
p( y j )
∑ p( y ) D
j =1 j
i j j
n
j
∑ p(a )d(a , b ) = D
i=1 i
n
信息率失真函数
• 信息率失真函数的值域 当D=Dmin时 R(D)=Rmax Dmin=0时 Rmax=H(X)(离散情况) 当D>=Dmax时 R(D)=Rmin=0 • 信息率失真函数是连续非负单调递减函数 • 保真度准则下的信源编码定理
, ∑p(a ) =1 ∑p(b ) =1, ∑p(b
i=1 i j =1 j j =1 n m m j
ai ) =1,
∑p(a
i=1
n
i
bj ) =1 ∑∑ p(aibj ) =1 ,
j =1 i=1
m
n
3
∑p(a b ) =p(b ), ∑p(a b ) =p(a )
i=1 i j j j =1 i j i
n
m
4 5
p(aibj ) = p(bj ) p(ai bj ) = p(ai ) p(bj ai )
当 与相 独 时 X Y 互 立
p(aibj ) = p(ai ) p(bj ) p(bj ai )=p(bj ),p(ai bj )=p(ai )

信息论与编码总结

信息论与编码总结

信息论与编码1. 通信系统模型信源—信源编码—加密—信道编码—信道—信道解码—解密—信源解码—信宿 | | |(加密密钥) 干扰源、窃听者 (解密秘钥)信源:向通信系统提供消息的人或机器信宿:接受消息的人或机器信道:传递消息的通道,也是传送物理信号的设施干扰源:整个系统中各个干扰的集中反映,表示消息在信道中传输受干扰情况 信源编码:编码器:把信源发出的消息变换成代码组,同时压缩信源的冗余度,提高通信的有效性 (代码组 = 基带信号;无失真用于离散信源,限失真用于连续信源)译码器:把信道译码器输出的代码组变换成信宿所需要的消息形式基本途径:一是使各个符号尽可能互相独立,即解除相关性;二是使各个符号出现的概率尽可能相等,即概率均匀化信道编码:编码器:在信源编码器输出的代码组上增加监督码元,使之具有纠错或检错的能力,提高通信的可靠性译码器:将落在纠检错范围内的错传码元检出或纠正基本途径:增大码率或频带,即增大所需的信道容量2. 自信息:()log ()X i i I x P x =-,或()log ()I x P x =-表示随机事件的不确定度,或随机事件发生后给予观察者的信息量。

条件自信息://(/)log (/)X Y i j X Y i j I x y P x y =-联合自信息:(,)log ()XY i j XY i j I x y P x y =-3. 互信息:;(/)()(;)log log ()()()i j i j X Y i j i i j P x y P x y I x y P x P x P y ==信源的先验概率与信宿收到符号消息后计算信源各消息的后验概率的比值,表示由事件y 发生所得到的关于事件x 的信息量。

4. 信息熵:()()log ()i iiH X p x p x =-∑ 表示信源的平均不确定度,或信源输出的每个信源符号提供的平均信息量,或解除信源不确定度所需的信息量。

信息论与编码第二章-复习

信息论与编码第二章-复习

I(xi ; yj) 变为 I( xi ), 表示收到xi后,从xi中获取关于xi的信
息量,也就是xi本身所含有的信息量,即能提供的全部信 息量,我们称之为xi 的“自信息量”。
所以:I(xi) 说,信源符号 xi 的自信息量,在数量上等于信源发 符号 xi 的不确定性。
2.2.1 自信息量
例2-2-1 英文字母中“e‖ 出现的概率为0.105,“c‖出现的 概率为0.023,“o‖出现的概率为0.001。分别计算 它们的自信息量。 解:“e‖的自信息量 I(e)= - log2 0.105=3.25 bit ―c‖的自信息量 I(c)= -log2 0.023=5.44 bit ―o‖的自信息量 I(o)= -log2 0.001=9.97 bit
第一节 信源的描述和分类
x2 xn X x1 P p ( x ) p ( x ) p ( x ) 2 n 1
,
显然有
p( xi ) 0, p( xi ) 1
i 1
n
注意:X,Y,Z代表随机变量,指的是信源整体; xi , y j , zl 代表随机事件的某一结果或信源的某 个元素,不可混淆!
i 1 j 1 n m
联合自信息量:
I ( xi y j ) log p ( xi y j )

注意:
a. 当xi,yj相互独立时,有P(xiyj)=P(xi)P(yj),那么就有 I(xiyj)=I(xi)+I(yj)。 xiyj所包含的不确定度在数值上也等于它们的自信息 量。
b.
2.2.1 自信息量
2.2.1 自信息量
b. 自信息量的单位的确定 • 在信息论中常用的对数底是2,信息量的单位为比特 (bit :binary unit ); • 若 取 自 然 对 数 , 则 信 息 量 的 单 位 为 奈 特 ( nat : nature unit ); • 若以10为对数底,则信息量的单位为哈特(det: hartley )。 这三个信息量单位之间的转换关系如下:

[信息论与编码]知识点总结

[信息论与编码]知识点总结

[信息论与编码]知识点总结2021/12/02 from Xwhite这个是预习完之后,感觉应该掌握的⼀些知识的总结。

总共分成四个⼤部分吧信息量与信源熵 公式背住,然后套公式,冗余度的概念信道和信道容量 概念,互信息的计算,简单信道容量的计算信源编码 概念,定长编码,变长编码,哈夫曼编码(应该是必考),⾹农编码信道编码 挺难的,编码定理得看,纠错编译码的概念看看就⾏,线性分组码必会,循环码,汉明码。

卷积码应该不考知识点总结第⼀章的⼀些基本概念看书就完了,⽐如信息、消息、通信模型等。

信息量与信源熵背熟!背熟!背熟!因为是知识点总结,所以基本只给出公式,想加深了解可以看课本,当然也可以看看本博客的⽂章先验概率:⽐如,考完试你估算⾃⼰及格的概率是50%,这就是先验概率,你及格的概率。

后验概率:⽐如,你估算完之后,你找个最差的同学⼀问,他说他能及格,也就是在你已知他可能及格的条件下你及格的概率,就是后验概率。

总结如果做题过程中,题⽬问的是单个符号的⾃信息量,那么我们就⽤以下公式。

如果题⽬问的是离散信源的信息量,或者熵,就⽤以下公式。

各概念之间的关系补充⼀些概念我们从信息量的传输⾓度来看通信模型信源:发出信息量H(X)——>信道:信道中损失的信息量H(X|Y)——>信宿:接收端获得的信息量I(X;Y) H(X|Y):疑义度,也可以叫损失熵,表⽰由于信道上存在⼲扰和噪声⽽损失掉的平均信息量。

H(Y|X):噪声熵全损信道:⼲扰很⼤,难以从Y中提取X的有效信息,信源发出的所有信息都损失在信道中I(X;Y)=0 ⽐如:加密编码⽆损信道:没有⼲扰,接收端能完全收到信源发出的信息。

I(X;Y)=H(X)冗余度概念看看书。

想要对这⾥的深⼊理解可以看⼀下课本或者看⼀下博客中离散信道的⽂章。

信道和信道容量信道的概念请⾃⾏看书记忆。

总结信源编码定长码:若⼀组码中所有码字的码长相同,则称为定长码变长码:若⼀组码中所有码字的码长各不相同,则称为变长码奇异码:若⼀组码中存在相同的码字,则称为奇异码。

信息论复习要点总结(word文档良心出品)

信息论复习要点总结(word文档良心出品)

自信息量:Harta p Nat a p bit a p a I i i e i i )(log )(log )(log )(102-=-=-=联合信息量:)(log )(2j i j i b a p b a I -=条件信息量:)/(log )/(2j i j ib a p b a I -=互信息量:)](/)/([log );(2i j i j i a p b a p b a I =信息的熵:∑=-=ni i i a p a p X H 12)(log )()(条件熵:∑∑==-=m j ni i j j i a b p b a p X YH 112)/(log )()/(联合熵:∑∑==-=m j ni j i j i b a p b a p XY H 112)(log )()(平均互信息量:)](/)/([log )();(112j mj ni i j j i b p a b p b a p X Y I ∑∑===马尔可夫信源问题: 1.n 元m 阶马尔科夫信源共有n m个稳定状态。

2. 用∑==mni i j i j s s p s p s p 1)/()()(和1)(1=∑=mni i s p 求各状态)(i s p ;3.极限熵:)/(log )/()(11i j ni nj i j i s s p s s p s p Hmm∑∑==∞-=4. 冗余度:0/1H H ∞-=ξ (H0表示等概分布信源的熵,2进制时为1)变长编码定理:m X H K m X H 22log /)(log /)(1≥>+信道容量问题:n 表示输入符号数,m 表示输出符号数。

bit/sign 无噪信道1(一一对应)信道容量:n C 2log =无噪信道2(一对多)信道容量:n C 2log =无噪信道3(多对一)信道容量:m C 2log = 对称信道(行列均可排列)信道容量:)..(log 212m q q q H m C-=当输入X 等概分布时,输出Y 也等概分布,此时达到信道容量。

信息论与编码--复习提纲PPT课件

信息论与编码--复习提纲PPT课件
本课程为考试课 成绩构成:20%(平时)+80(卷面)
.
2
• 考题类型:
• 1、,比如什么叫熵,什么 叫无记忆信源等)
• 2、判断题10分,每题2分
• 3、简单分析题20分,每题5分
• 4、综合计算题50分,4个大题。
.
3
需掌握的知识点
• 1、自信息量的计算,P15,公式2.1.1,计 算自信息量时,计算器上用的log按钮是10 为底的,需*3.322比特,算出的信息量才是 以比特/符号为单位。
.
7
• 12、信道编码 发现e个独立随机错误,码字 最小距离的要求;纠正t个独立随机错误, 码字最小距离的要求;发现e个独立随机错 误,同时纠正t个独立随机错误,码字最小 距离的要求P202;汉明距离P217;汉明码 P226的特点;线性分组码的生成矩阵P224; 卷积码编码P236-239。习题6.1,6.3,6.4, 6.5,6.10
• 9、信息传输率的计算,P95公式4.5.1,公 式4.5.2
.
6
• 10、信道容量的计算公式,P96公式4.5.3,4.5.4, 对称离散信道容量的计算,P99公式4.5.9,什么 样的信道是对称信道,准对称信道?P98对称离 散信道的4矩阵例子。二进制对称信道的计算, P100上的公式。
• 11、香农编码,哈夫曼编码的步骤,平均码长, 编码效率的计算公式。为了获得同样的编码效率, 定长码需要的码长比变长码大得多。哈夫曼编码 不唯一。
RT需掌握的知识点
• 1、自信息量的计算,P15,公式2.1.1,计 算自信息量时,计算器上用的log按钮是10 为底的,需*3.322比特,算出的信息量才是 以比特/符号为单位。
• 2、条件自信息量的计算,P16,公式2.1.3 • P16,例2.1.2,P40习题2.1—2.5。
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1
第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。 2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化. 第2章 信源及信息量1. 单符号离散信源数学模型 2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=- log2P(xi)、单位:bit、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。 3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj已定)随机事件xi 所带来的信息量。 三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi) 4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P相等时信息熵最大H(X)=log2 n。3)连续信源的最大熵:定义域内的极值. 5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H(X/Y)= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y后,信源X仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。噪声熵H(Y/X):已知X对符号集Y尚存的不确定性,由信道噪声引起。 联合熵H(X,Y) =-∑∑P(x,y) log2P(x,y) H(X,Y)=H(X)+H(Y/X) H(X,Y)=H(Y)+H(X/Y) 6. 熵的性质:1)非负性H(X)≥0:因随机变量X所有取值p分布满足0≤p(xi)≤1;当取对数的底大于1时log p(xi)≤0,而-p(xi)logp(xi)≥0,故熵H(X)≥0;只当随机变量是一确知量时熵H(X)=0。2)对称性:p(xn) 的顺序互换时熵不变。3) 最大离散熵定理,极值性:各个符号出现概率相等时(p(xi)=1/n)熵最大。4) 扩展性5) 确定性:信源符号中有一个符号出现概率为1熵就=0。6) 可加性7) 极值性:任一概率分布p(xi)对其它概率分布p(yi)的自信息取期望时必大于本身的熵:H(X/Y)≤H(X),H(Y/X)≤H(Y) 8) 上凸性H[αP +(1-α)Q]>αH(P)+(1-α)H(Q) 7. 平均互信息量的定义3个公式的物理意义:从Y 获得的关于X的平均信息量。发出X 前后关于Y 的先验不确定度减少的量。通信前后整个系统不确定度减少量。单位(bit/sym)。 8. 平均互信息量性质(①对称②非负(互信息可以负)③极值④凸函数⑤数据处理定理)及证明(极值性、凸函数性):1)极值性I(X;Y)≤H(X) .2)上下凸性:I(X;Y)是p(xi)的严格上凸函数,是p(yj/xi)的严格下凸函数.3)数据处理定理:消息结果多级处理后随次数增多输入/出消息平均互信息量趋于变小. 11.无记忆扩展信源:每次发出一组2个以上相互独立符号序列消息的信源。平稳信源:各维联合P分布都与t起点无关的完全平稳信源。 12. 离散无记忆信源X的N次扩展信源熵H(X)=H(XN)=N · H(X) 13. 马尔可夫信源:任何t发出符号的P只与前已发的m小于N个符号有关,与更前的无关。状态的概念:与当前输出符号有关的前m个随机变量序列的某个具体消息。平稳后信源的概率分布:各态历经的马尔可夫链的极限P方程为极限熵: 14. 连续信源的概念:变量和函数取值连续。最大连续熵定理:离散信源等概率分布时熵最大;对连续信源,无限制就无最大熵,不同限制下信源最大熵不同:峰值功率(幅度)受限,均匀分布的连续信源熵最大:h(X)=log2(b﹣a);平均功率受限,均值为零高斯分布的连续信源熵最大:;均值受限,指数分布时连续信源熵最大: log2me。 第3章 信道及其容量1. 信道模型{X P(X/Y) Y}、分类:根据输入出的(时间&取值特性/随机变量数/输入出数/有无干扰/有无记忆/恒参、随参)分
类。2. 信道容量定义(最大的信息传输率)、

单符号离散特殊信道C计算:
(1) 离散无噪信道的信道容量:①有一一对应关系的无噪信道C=log2n
②有扩展性能的无噪信道C=log2n ③有归并性能的无噪信道C=log2m
(2) 强对称离散信道的信道容量: C=log2n+(1-P)log2(1-P)+Plog2P/n-1
n=2时是2进制均匀信道。(3) 对称离散信道的容量:C=log2m-H(Y/xi)

3. 连续信道,香农公式;Ct=Wlog2(1+Px/Pn)(bit/s): (信噪比/dB,
10log10P=PdB)。加性高斯白噪声是最基本的噪声与干扰模型,幅度服从
高斯分布,功率谱密度是均匀分布。

5.有噪信道编码DL内容意义:信道容量是一临界值,只要信息传输率
不超过这个值,信道就可几乎无失真地把信息传送过去,否则就会失真。

6.信源信道编码DL:H信源熵第4章 信息率失真函数1. 失真度(失真函数):连续信源信道,用d(x,y)
≥0表示。平均失真度:失真函数的期望

2. 信息率失真函数定义:找到某试验信道P(yi/xi)使信道传输速率I(X;Y)
达到的最小值,单位:比特/信源符号。
RN(D)=NR(D)
(R(D)=0时才无失真,故连续信源不能无失真传输)

3. 信息率失真函数性质:(1)定义域(Dmin, Dmax)
Dmax=min(D1...Dm)(2)R(D)是关于D的下凸函数

(3)单调递减/连续性4. 把 称为保真度准则.
第6章信源编码1.信源编码的目的+途径:目的是提高通信有效性。常
压缩(减少)信源的冗余度,一般方法:压缩每个信源符号的平均bit数/信源
码率,即同样多信息用较少码率传送,使单位时间传送平均信息量增加。

第7章 信道编码的基本概念1. 信道编码概念,检、纠错定义:(1信道编
码是提高通信可靠性为目的的编码(2码序列中信息序列码元与多余码
元之间是相关的,根据相关性来检测(发现)和纠正传输中产生的差错
就是信道编码的基本思想。

第8章 线性分组码1. 线性分组码概念:通过预定线性运算将长为k位的
信息码组变换成n重的码字(n>k),由2k个信息码组所编成的2k个码字集
合,称为线性分组码。2.监督矩阵: 确定信息元得到监督元规则的一组
方程称为监督方程/校验方程,写成矩阵形式就是H。3.生成矩阵(系统
码形式): 生成信息位在前监督位在后的(n, k)线性码的矩阵G。

2. 编码:由H/G将长为k的信息组变成长为n>k的码字;伴随式译码:
若伴随式S=0,判没出错,接收字是1个码字;若S≠0,判为有错。
3. 最小距离的概念/性质/和纠、检错的关系:(1)最小距离&检错能力:d
min

≥l+1(2)-&纠错能力:dmin≥2t+1(3)-&检、纠错能力:dmin≥t+l+1

4. 线性分组码的最小汉明距离=该码非0码字的最小重量.
第9章 循环码1. 循环码定义:任意码字i次循环移位所得仍是一码字的
(n, k)线性分组码。生成多项式概念:生成了(n, k)线性码的g(x)。

DL1:(n, k)循环码中生成多项式g(x)是唯一(n-k)次码多项式且次数最低
DL2:(n, k)循环码中每个码多项式C(x)都是g(x)的倍式;而每个为g(x)
倍式且次数≤n-1的多项式必是一码多项式。

DL3:在(n, k)线性码中,如全部码多项式都是最低次的(n-k)次码多项
式的倍式,则此线性码为 (n, k)循环码。

DL4:(n, k)循环码的生成多项式g(x)是(xn+1)的因式:xn+1=h(x) ·g(x)

DD

相关文档
最新文档