第二章 信息的度量

合集下载

信息论与编码-第2讲-信源及信息度量1

信息论与编码-第2讲-信源及信息度量1



自信息含义
当事件xi发生以前:表示事件xi发生的不确定性。 当事件xi发生以后:表示事件xi所含有(或所提供)的信
息量。在无噪信道中,事件xi发生后,能正确无误地传输到 收信者,所以I(xi)可代表接收到消息xi后所获得的信息量。 这是因为消除了I(xi)大小的不确定性,才获得这么大小的信 息量。
2.1.1 单符号离散信源的数学模型
(1) 信源的描述方法 (2) 单符号离散信源数学模型
(1) 信源的描述方法
在通信系统中收信者在未收到消息以前,对信源发出 什么消息是不确定的。
① 离散信源:输出的消息常常是以一个个符号形式出现,


这些符号的取值是有限的或可数的。 单符号离散信源:只涉及一个随机事件,可用随机变量描述。 多符号离散信源:每次输出是一个符号序列,序列中每一位出现




② 联合自信息量

信源模型为
x2 y1 ,, x2 ym ,, xn y1 ,, xn y m XY x1 y1 ,, x1 ym , P( XY ) p( x y ),, p( x y ), p( x y ),, p( x y ),, p( x y ),, p( x y ) 1 m 2 1 2 m n 1 n m 1 1

计算y1与各种天气之间的互信息量 对天气x1,不必再考虑 对天气x2, I ( x2 ; y1 ) log2 p( x2 / y1 ) log2 1/ 2 1(比特) p( x ) 1/ 4
i i

验概率的函数。

函数f [p(xi)]应满足以下4个条件 根据上述条件可以从数学上证明这种函数形式是对 数形式。

信息论讲义(2讲)

信息论讲义(2讲)

信息论第2讲北京航空航天大学201教研室陈杰buaa201gcss@ PWD:buaaf6152第一章小结1.信息论:经典信息论工程信息论广义信息论2.信息的概念:通俗信息概念广义信息概念概率信息概念3.信息:抽象概念,研究对象,含于消息消息:比较具体,非物理量,信息的载荷者信号:最具体,表示消息的物理量,可测量、可显示、可描述,消息的载荷者4.通信系统的模型:第一章小结(续)通信系统干扰源窃听者模型32.5 连续随机变量的互信息和相对熵2.5.1 连续随机变量的互信息⎯定义⎯熵的性质2.5.2 连续随机变量的相对熵⎯连续随机变量的自信息量⎯相对熵、联合熵、条件熵⎯性质45•连续随机变量的互信息连续随机变量集XY ,事件x , p (x ) ≥0和事件y , p (y ) ≥0之间的互信息定义为00()() lim log ()()x y p x y p y x y p x xp y y Δ→Δ→ΔΔ=ΔΔ00()(;)lim log ()def x y p x y x I x y p x xΔ→Δ→Δ=Δ() log ()()p xy p x p y =6•连续随机变量的平均互信息连续随机变量集合X 和Y 之间的平均互信息量(Mutual Information)定义为()(;)()log ()()def p xy I X Y p xy dxdy p x p y ∞−∞=∫∫7•连续随机变量的平均互信息的性质(1)非负性当且仅当连续随机变量X 和Y 统计独立时等号成立。

(2)对称性(;)0I X Y ≥(;)(;)I X Y I Y X =8•连续随机变量令随机变量X 的取值区间是(a ,b ),a <b ,把它分成n 段,等间隔,那么X 处于第i 个小区间的概率为事件x i <x i +Δ的自信息量为b a n −Δ=()i i p p x Δ=⋅Δlog log[()]i i p p x −Δ=−⋅Δ9•连续r.vX 的平均自信息量为•当n →∞,Δi →0时,定义绝对熵()()log[()]i i iH X p x p x Δ=−⋅Δ⋅⋅Δ∑()H X Δ→∞0()log H X Δ=-()[log ()]()[log ]i i i i ip x p x p x =−⋅⋅Δ−⋅Δ⋅Δ∑∑10•连续随机变量的相对熵(Differential Entropy)称为连续随机变量的相对熵,或微分熵,简称为熵。

信息论第二章信息的度量

信息论第二章信息的度量

I(xi yj ) = - log p(xi yj ) = log 60 = 5.907(比特)
(2)在二维联合集X Y上的条件分布概率为 事件提供给甲的信息量为条件自信息量
p(y j
1 xi ) 12
,这一
I(yj︱xi) = -log p(yj︱xi) = log12 = 3.585(比特)
2.1.2 互信息量和条件互信息量
2.联合自信息量
XY
P
(
XY
)
p(a a 11 b b 11 ,) ,,,pa (1 a b 1m bm ,) ,,,pa (a nb n1 b,1) ,,,p a(nb am nbm )
其中 0 p(aibj ) 1(i 1,2,,n; j 1,2,,m)
nm
p(aibj ) 1。
根据概率互换公式p(xi yj) = p(yj︱xi)q(xi)=φ(xi︱yj)ω(yj) 互信息量I(xi ;yj )有多种表达形式:
I(xi;yj)loq(p x g (ix ) iy (jy )j)I(xi)I(yj)I(xiyj) (2-7)
I(xi;yj)lopg (y(yjjx)i)I(yj)I(yj xi)(2-8)
第2章 信息的度量
内容提要:
根据香农对于信息的定义,信息是一个系 统不确定性的度量,尤其在通信系统中, 研究的是信息的处理、传输和存储,所以 对于信息的定量计算是非常重要的。本章 主要从通信系统模型入手,研究离散情况 下各种信息的描述方法及定量计算,讨论 它们的性质和相互关系。
பைடு நூலகம் 2.1 自信息量和互信息量
x
i(i = 1,2,
X q(X)
x1 1
3
x2 1

信息论讲义_第一讲

信息论讲义_第一讲

• 香农定义的信息也有其局限性,存在一些缺陷
– 定义的出发点是假定事物状态可以用一个以经典集 合论为基础的概率模型来描述。 – 没有考虑收信者的主观特性和主观意义,也撇开了 信息的具体含意、具体用途、重要程度和引起后果 等因素。
20
1.1.4 信息、消息与信号
信息: 比较抽象的概念;是系统中传输的对 象;包含在消息之中。 消息:比较具体,但不是物理量;具有不同 形式,例如语言、文字、符号、图像等能够 被人感知;可以传输并被通信双方理解;同 一消息含有不同信息;同一信息可用不同消 息载荷。 信号:最具体,是消息的载荷者;是表示消 息的物理量,可测量、可显示、可描述,是 信息的物理表达层。
12
1.1.2 广义的信息概念
信息本身看不见、摸不着,它必须依附于一定的物 质形式(如文字、声波、电磁波等)。这种运载信 息的物质称为信息的载体,一切物质都有可能成为 信息的载体。
13
1.1.3 概率信息概念
由美国数学家香农1948年提出,亦称香农信息 基于对通信活动基本功 基于对通信活动对象和 基于对通信活动的机制 或狭义信息。概率信息是从 不确定性 能的观察分析,“通信 过程的分析研究,“信 和本质的分析研究, (Uncertainty) 和概率测度出发定义信息的。 的基本问题是在信宿端 源发出的消息总是从可 “人类只有在两种情况 香农针对人类通信活动的特点,提出了 精确或近似地复制发送 能发生的消息符号集合 下有通信的需求, 1)自 端所挑选的消息。通常 中随机选择,通信系统 己有某种形式的消息要 ① 形式化假说 消息是有语义的,即它 无法预先知道信源在什 告诉对方,且估计对方 ② 非决定论 按某种关系与某些物质 么时候会选择什么消息 不知道; 2)自己有某种 ③ 不确定性 概念的实体联系着。通 发送”,即具有通信意 疑问需要对方给出解答” 信中语义方面的问题与 义的消息都是随机发生 经过通信活动后,消除 工程问题没有关系” 的 了 随机事件,获取了信 不确定性

信息论编码 第二章信息度量1

信息论编码   第二章信息度量1

50个红球,50个黑球
Y
20个红球,其它4种 颜色各20个
Z
问题:能否度量、如何度量??
2.3.2信源熵数学描述
信源熵
• 定义:信源各个离散消息的自信息量的数学期望 (即概率加权的统计平均值)为信源的平均信息 量,一般称为信源的信息熵,也叫信源熵或香农 熵,有时也称为无条件熵或熵函数,简称熵。 • 公式: n 1 H ( X ) = E[ I ( xi )] = E[log2 ] = −∑ p( xi ) log2 p( xi ) p( xi ) i =1 • 熵函数的自变量是X,表示信源整体,实质上是无 记忆信源平均不确定度的度量。也是试验后平均 不确定性=携载的信息 信息量为熵 • 单位:以2为底,比特/符号 • 为什么要用熵这个词,与热熵的区别?
3
( 2)
∑ p ( x ) = 1, ∑ p ( y
i =1 m i j =1
n
m
j
) = 1,∑ p ( xi / y j ) = 1,
i =1 n
n
概 率 复 习
∑ p( y
j =1 n
j
/ xi ) = 1, ∑ ∑ p ( xi y j ) = 1
j =1 i =1 m
m
( 3) ( 4) (5)
1
对天气x1 ,Q p( x1 / y1 ) = 0,∴不必再考虑x1与y1之间 信息量
对天气 x 2 : I ( x 2 : y 1 ) = log
2
p ( x 2 / y1 ) = log p ( x2 )
2
1/ 2 = 1( bit ) 1/ 4
同理 I ( x 3 : y 1 ) = I ( x 4 : y 1 ) = 1( bit ), 这表明从 y 1 分别得到了

信息论基础第2章离散信源及其信息度量

信息论基础第2章离散信源及其信息度量
《信息论基础》
第2章 离散信源及其信息度量
本章内容
2.1 离散信源的分类 2.2 离散信源的统计特性 2.3 离散随机变量的信息度量 2.4 离散信源的N次扩展信源 2.5 离散平稳信源 2.6 马尔可夫信源 2.7 离散信源的相关性和剩余度
《信息论基础》
2.1 离散信源的分类
离散信源的分类
按照离散信源输出的是一个消息符号还是消息符 号序列,可分为单符号离散信源和多符号离散信 源。
,
q2 pn
,
qm ) pn
n
m
其中, pi 1, qj pn 。
i1
j 1
可见,由于划分而产生的不确定性而导致熵的增加量为
pnHm (
q1 pn
,
q2 pn
, qm pn
)
6、上凸性
熵函数 H (p) 是概率矢量 p ( p1, p2 ,
pq ) 的严格∩型凸函数
( 或 称 上 凸 函 数 )。 即 对 任 意 概 率 矢 量 p1 ( p1, p2 , pq ) 和
成 H ( p1) 或 H ( p2 ) 。
和自信息相似,信息熵 H ( X ) 有两种物理含义:
① 信源输出前,信源的信息熵表示信源的平均 不确定度。
② 信源输出后,信源的信息熵表示信源输出一 个离散消息符号所提供的平均信息量。如果信道无噪 声干扰,信宿获得的平均信息量就等于信源的平均信 息量,即信息熵。需要注意的是,若信道中存在噪声, 信宿获得的平均信息量不再是信息熵,而是 2.5 节介 绍的平均互信息。
联合熵 H (XY ) 的物理含义表示联合离散符号集 XY 上
的每个元素对平均提供的信息量或平均不确定性。 单位为“bit/符号对”。 需要注意的是,两个随机变量 X 和 Y 既可以表示两个

信息论——信息的度量

信息论——信息的度量信息的度量 信息具可度量性,其⼤⼩取决于信息所消除的不确定性 举例如下: 消息A:中国⼥⼦乒乓球队夺取亚运会冠军。

消息B:中国男⼦⾜球队夺取世界杯赛冠军。

从事件的描述上来看,其主题内容⼤致相同,那么我们是否可以认为事件A和事件B具有相同的信息量呢?显然是不⾏的。

根据以往经验,我们可以认为事件A是⼀个⼤概率事件,所以事件A的不确定性⽐较⼩,故当事件A发⽣时,我们从这个消息中得到的信息(消除的不确定度)很⼩。

同理对事件B⽽⾔,由于是个极⼩概率事件,我们得到的信息很⼤。

由此我们可以推断:消息B的信息量⼤于消息A。

对于⼀个事件X,我们假设其不确定性为 I(p1) ,其中 p1 是事件X的先验概率。

对应于事件X的消息X所消除的不确定性为 I(p2)。

那么在我们获取了消息X之后,事件X的不确定性就变为了 I(p1)-I(p2) ,由此我们可以知道当我们对⼀个事物的信息获取的越多,其不确定性就越⼩,当其不确定性变为0时,该事件就被确定下来了,我们对其⽆法再获取更多的信息量了。

直观定义: 收到某消息获取的信息量=不确定性减少量=收到该消息前后某事件的不确定性差信息量的数学表⽰ 理论依据(信息量具有的性质): 1.⾮负性对于⼀个事件⽽⾔,当事件被完全确定时,即我们⽆法获取更多信息时,其信息量为0,因此⽆法⽐0更⼩。

2.单调性是先验概率的单调递减函数,即某事件的发⽣概率越⼤,其信息量就越⼩。

3.对于事件A 若 P(a)=0 则 I(Pa)=+∞ 若 P(a)=1 则 I(Pa)=0。

4.两个独⽴事件的联合信息量应等于它们分别的信息量之和。

I(xi)具有两个含义: 1.事件发⽣前,表⽰该事件发⽣的不确定性。

2.事件发⽣后,表⽰该事件所提供的信息量。

术语解释 先验概率(prior probability)是指根据以往经验和分析得到的概率。

通信原理知识要点

通信原理知识要点第一章概论1 、通信的目的2 、通信系统的基本构成●模拟信号、模拟通信系统、数字信号、数字通信系统●两类通信系统的特点、区别、基本构成、每个环节的作用3 、通信方式的分类4 、频率和波长的换算5 、通信系统性能的度量6 、传码速率、频带利用率、误码率的计算第二章信息论基础1 、信息的定义2 、离散信源信息量的计算(平均信息量、总信息量)3 、传信率的计算4 、离散信道的信道容量5 、连续信道的信道容量:掌握香农信道容量公式第三章信道与噪声了解信道的一般特性第四章模拟调制技术1 、基带信号、频带信号、调制、解调2 、模拟调制的分类、线性调制的分类3 、 AM 信号的解调方法、每个环节的作用第五章信源编码技术1 、低通、带通信号的采样定理(例 5 - 1 、例 5 -2 )2 、脉冲振幅调制3 、量化:●均匀量化:量化电平数、量化间隔、量化误差、量化信噪比●非均匀量化: 15 折线 u 律、 13 折线 A 律4 、 13 折线 A 律 PCM 编码(过载电压问题- 2048 份)5 、 PCM 一次群帧结构( P106 )6 、 PCM 系统性能分析7 、增量调制 DM 、增量脉码调制 DPCM :概念、特点、与 PCM 的比较第六章数字基带信号传输1 、熟悉数字基带信号的常用波形2 、掌握数字基带信号的常用码型3 、无码间干扰的时域条件、频域条件(奈奎斯特第一准则)4 、怎样求“等效”的理想低通()5 、眼图分析(示波器的扫描周期)6 、均衡滤波器第七章数字调制技术1 、 2ASK 、 2FSK 、 2PSK 、 2DPSK 的典型波形图2 、上述调制技术的性能比较3 、 MASK 、 MFSK 、 MPSK 、 MDPSK 、 QPSK 、 QDPSK 、 MSK ( h=0.5 )、APK 的含义、特点4 、数字调制技术的改进措施第七章复用与多址技术1 、复用与多址技术的基本概念、分类、特点、目的(区别)2 、同步技术的分类、应用第九章差错控制技术1 、常用的差错控制方式( ARQ 、 FEC 、 HEC )、优缺点2 、基本概念3 、最小码距与检错纠错能力的关系4 、常用的简单差错控制编码(概念、特点、编写)5 、线性分组码:基本概念、特点6 、汉明码的特点6 、循环码●概念●码字的多项式描述、模运算、循环多项式的模运算●循环码的生成多项式●根据生成多项式求循环码的:码字、(典型)生成矩阵、监督多项式、(典型)监督矩阵较大题目的范围1 、信息量的度量2 、信道容量的计算3 、 13 折线 A 律 PCM 编码4 、均衡效果的计算5 、数字调制波形的绘制6 、 HDB3 编码、解码7 、循环码重点Part I 基础知识1. 通信系统的组成框图 , 数字 / 模拟通信系统的组成框图。

信息理论与编码课后答案第2章

第二章 信息的度量习题参考答案不确定性与信息(2.3)一副充分洗乱的牌(含52张),试问: (1)任一特定排列所给出的不确定性是多少?(2)随机抽取13张牌,13张牌的点数互不相同时的不确定性是多少? 解:(1)一副充分洗乱的扑克牌,共有52张,这52张牌可以按不同的一定顺序排列,可能有的不同排列状态数就是全排列种数,为6752528.06610P =≈⨯!因为扑克牌充分洗乱,所以任一特定排列出现的概率是相等的。

设事件A 为任一特定排列,则其发生概率为 ()6811.241052P A -=≈⨯!可得,任一特定排列的不确定性为()()22log log 52225.58I A P A =-=≈!比特 (2)设事件B 为从中抽取13张牌,所给出的点数都不同。

扑克牌52张中抽取13张,不考虑其排列顺序,共有1352C 种可能的组合,各种组合都是等概率发生的。

13张牌中所有的点数都不相同(不考虑其顺序)就是13张牌中每张牌有4种花色,所以可能出现的状态数为413。

所以()131341352441339 1.05681052P B C -⨯!!==≈⨯!则事件B 发生所得到的信息量为()()13213524log log 13.208I B P B C =-=-≈ 比特2.4同时扔出两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“2和6 同时出现”这事件的自信息量。

(2)“两个3同时出现”这事件的自信息量。

(3)两个点数的各种组合(无序对)的熵。

(4)两个点数之和(即2,3,…,12构成的子集)的熵。

(5)两个点数中至少有一个是1的自信息。

解:同时扔两个正常的骰子,可能呈现的状态数有36种,因为两骰子是独立的,又各面呈现的概率为61,所以36种中任一状态出现的概率相等,为361。

(1) 设“2和6同时出现”这事件为A 。

在这36种状态中,2和6同时出现有两种情况,即2,6和2,6。

信息论基础第二版习题答案

信息论基础第二版习题答案信息论是一门研究信息传输和处理的学科,它的基础理论是信息论。

信息论的基本概念和原理被广泛应用于通信、数据压缩、密码学等领域。

而《信息论基础》是信息论领域的经典教材之一,它的第二版是对第一版的修订和扩充。

本文将为读者提供《信息论基础第二版》中部分习题的答案,帮助读者更好地理解信息论的基本概念和原理。

第一章:信息论基础1.1 信息的定义和度量习题1:假设有一个事件发生的概率为p,其信息量定义为I(p) = -log(p)。

求当p=0.5时,事件的信息量。

答案:将p=0.5代入公式,得到I(0.5) = -log(0.5) = 1。

习题2:假设有两个互斥事件A和B,其概率分别为p和1-p,求事件A和B 同时发生的信息量。

答案:事件A和B同时发生的概率为p(1-p),根据信息量定义,其信息量为I(p(1-p)) = -log(p(1-p))。

1.2 信息熵和条件熵习题1:假设有一个二进制信源,产生0和1的概率分别为p和1-p,求该信源的信息熵。

答案:根据信息熵的定义,信源的信息熵为H = -plog(p) - (1-p)log(1-p)。

习题2:假设有两个独立的二进制信源A和B,产生0和1的概率分别为p和1-p,求两个信源同时发生时的联合熵。

答案:由于A和B是独立的,所以联合熵等于两个信源的信息熵之和,即H(A,B) = H(A) + H(B) = -plog(p) - (1-p)log(1-p) - plog(p) - (1-p)log(1-p)。

第二章:信道容量2.1 信道的基本概念习题1:假设有一个二进制对称信道,其错误概率为p,求该信道的信道容量。

答案:对于二进制对称信道,其信道容量为C = 1 - H(p),其中H(p)为错误概率为p时的信道容量。

习题2:假设有一个高斯信道,信道的信噪比为S/N,求该信道的信道容量。

答案:对于高斯信道,其信道容量为C = 0.5log(1 + S/N)。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

q1 qm H1 ( p1 , p2 ,..., pn ); H 2 ( p1 ,..., pn1; q1 ,..., qm ); H 3 ( ... ) pn pn 它们之间具有关系:H 2 H1 pn * H 3
这说明对集合的进一步划分会使它的不确定性增加,即熵总是往大 增加。


事件(或消息)输出的信息量仅依赖于它的概 率,而与它的取值无关。 信息量是概率分布的连续函数。 信息量是概率分布的减函数。 统计独立的两个信源产生的两个事件,其联合 信息量应为各事件信息量之和。
对数函数!
自信息量

由于信息量与概率成反比,并且具有可加性, 可以证明,信息量的计算式为
I ( x k ) log 2 1 log 2 Pk pk
条件自信息、联合自信息、互信息量
I (u1 | u2 ) log p(u1 | u2 )
I ( xk y j ) log p( xk y j )
I ( xk ; y j ) I ( xk ) I ( xk | y j ) I ( y j ) I ( y j | xk )
单符号离散信源
x1 , x2 , ..., xi , ..., xN X X : P( X ): P( x ), P( x ), ..., P( x ), ..., P( x ) P 1 2 i N
P( x ) 1
i 1 i
n
例:对于二进制数据、数字信源:X={0,1},则有
I ( xk ; y j ) log
p( xk | y j ) p( xk )
自信息、条件自信息和互信息
I ( xk ; y j ) I ( xk ) I ( y j ) I ( xk y j )
I(xk) I(yj)
I(xk ;yj)
互信息量的性质

对称性。 值域为实数(可以小于0)。 不大于其中任一事件的自信息量。
1 s2 s3 s4 s1 s2 s3 s4 s 1 1 1 1 S p 1 p 2 p 3 p 4 2 4 8 8
则其熵为:
1 1 2 H(S) pi logpi log 2 log 4 log8 1.75比特 / 符号 2 4 8 i 1
熵的性质(续)

极值性,即当所有事件等概率出现时,平均不 确定性最大,从而熵最大,即:
1 1 1 H ( P1 , P2 ,..., Pn ) H ( , , ... , ) log n n n n
熵的性质(续)

可加性: 设有一事件的完全集合{E1,E2,…,En},其熵为 H1(p1,p2,…,pn)。现设其中一事件En又划分为m个子集,即: m m q q .. qm En Fk , pn qk , p{Fk } qk; 则有 1 2 1 pn k 1 k 1 这时构成的三个概率空间分别具有熵函数:
它是一个科学的定义,有明确的数学模型和定量计 算; 它与日常生活中关于信息的理解不矛盾; 它排除了对信息一词某些主观性的含义,是纯粹形 式化的概念;
仙农关于信息定义和度量的局限

局限


这个定义的出发点是假设事物的状态可以用一个以 经典集合论为基础的概率模型来描述,然而实际存 在的某些事物运动状态很难用一个合适的经典概率 模型来描述,甚至在某些情况下不存在这样的模型; 这个定义和度量没有考虑收信者的主观性和主观意 义,也抛开了事物本身的具体含义、用途、重要程 度和引起的后果等,这与实际不完全一致。
单消息(符号)信源


它是最简单也是最基本的信源,是组成实际 信源的基本单元。它可以用信源取值随机变 量的范围X和对应概率分布P(X)共同组成的 二元序对[X,P(X)]来表示。 当信源给定,其相应的概率空间就已给定; 反之,如果概率空间给定,这就表示相应的 信源已给定。所以,概率空间能表征这离散 信源的统计特性,因此有时也把这个概率空 间称为信源空间。

其中Pk是事件Xk发生的概率,这也是先农关于 (自)信息量的度量(概率信息); 自信息量 I(xk) 的含义

当事件 xk发生以前,表示事件xk发生的不确定性; 当事件 xk发生以后,表示事件xk所提供的信息量;
自信息量


计算信息量主要要注意有关事件发生概率的计 算; 例:从26个英文字母中,随即选取一个字母, 则该事件的自信息量为 I = -log2 (1/26) = 4.7 比特 例:设m比特的二进制数中的每一个是等概率 出现的(这样的数共有2m个),则任何一个数出 现的自信息为: I = -log2 (1/ 2m) = m 比特/符号
一般信息论


广义信息论

研究通信系统的目的


找到信息传输过程的共同规律,以提高信息传输的可 靠性、有效性、保密性和认证性,以达到信息传输系 统最优化。 可靠性: 使信源发出的消息经过信道传输以后,尽可 能准确地、不失真地再现在接收端。 有效性: 经济效果好,即用尽可能短的时间和尽可能 少的设备来传送一定数量的信息。 保密性: 隐蔽和保护通信系统中传送的消息,使它只 能被授权接收者获取,而不能被未授权者接收和理解。 认证性: 指接收者能正确判断所接收的消息的正确性 和完整性,而不是伪造的和被篡改的。
纠错码 编码调制理论
网络最佳码
Huffman码(1952)、Fano码 算术码(1976,1982) LZ码(1977,1章 信息的度量

2.1 度量信息的基本思路 2.2 信源熵和条件熵 2.3 互信息量和平均互信息量 2.4 多维随机变量的熵
条件互信息量
I ( xi ; y j | zk ) log
p( xi | y j zk ) p( xi | zk )
熵(Entropy)的概念

通常研究单独一个事件或单独一个符号的信息 量是不够的,往往需要研究整个事件集合或符 号序列(如信源)的平均的信息量(总体特征), 这就需要引入新的概念;
香农信息论







信息的度量 信息量、熵 无失真信源编码 香农第一定理 信道编码 香农第二定理 带限信道传输能力 信道容量公式(香农公式) 信息传输失真及差错 信息率失真理论、香农第三定理、信息价值 网络信息传输 网络信息理论 保密通信
香农信息论体系结构
Shannon信息论 压缩理论 无失真编码 等长编码 定理 Shannon 1948 McMillan 1953 变长编码 定理 Shannon 1948 McMillan 1956 有失真编码 率失真理论 Shannon Gallager Berger 传输理论 信道编码定理 网络信息理论
自信息量

自信息量的单位

自信息量的单位取决于对数的底; 底为2,单位为“比特(bit)”; 底为e,单位为“奈特(nat)”; 底为10,单位为“哈特(hat)”; 1 nat = 1.44bit , 1 hat = 3.32 bit;
仙农关于信息定义和度量的优点

优点


第一章 信息科学及其发展

1.1 通信系统的基本概念 1.2 信息科学的有关概念 1.3 信息理论的研究内容 1.4 香农信息论概述
通信系统模型
信 源
信 源 编 码
加 密
信 道 编 码
信 道
信 道 译 码
解 密
信 源 译 码
信 宿
密 钥 源
噪 声
密 钥 源
信息、消息和信号

信息

一个抽象的概念,可以定量的描述。信息、物质和能量是 构成一切系统的三大要素 是信息的载体,相对具体的概念,如语言,文字,数字, 图像 表示消息的物理量,电信号的幅度,频率,相位等等
信息量、信道容量、熵、香农定理、香农公式等。
信息论的研究内容

狭义信息论(香农信息论)

研究信息测度,信道容量以及信源和信道编码理论 研究信息传输和处理问题,除香农信息论外还包括 噪声理论,信号滤波和预测,统计检测和估值理论, 调制理论,信息处理理论和保密理论 除上述内容外,还包括自然和社会领域有关信息的 内容,如模式识别,计算机翻译,心理学,遗传学, 神经生理学

消息


信号

通信系统传输的是信号,信号是消息的载体,消息中的未知成分是信息。
信息的特征




未知性或不确定性。 又不知到知,等效为不确定性的集合的元素的 减少。 可以度量。 可以产生、消失,可以被携带、存储和处理。 可以产生动作。
信息论要解决的基本问题




什么是信息?如何度量? 在给定的信道中,信息传输有没有极限? 信息能否被压缩和恢复?极限条件是什么? 从实际环境(如干扰,噪声)中抽取信息,极限条件 是什么? 允许一定失真的条件下,信息能否被更大程度地压缩? 极限条件是什么? 设计什么样的系统才能达到上述极限? 现实中,接近极限的设备是否存在?
单符号离散信源


这些信源可能输出的消息数是有限的或可数的,而且 每次只输出其中一个消息。因此,可以用一个离散型 随机变量X来描述这个信源输出的消息。这个随机变 量X的样本空间就是符号集A;而X的概率分布就是各 消息出现的先验概率,信源的概率空间必定是一个完 备集。 在实际情况中,存在着很多这样的信源。例如投硬币、 书信文字、计算机的代码、电报符号、阿拉伯数字码 等等。这些信源输出的都是单个符号(或代码)的消息, 它们符号集的取值是有限的或可数的。我们可用一维 离散型随机变量 X来描述这些信源的输出。它的数学 模型就是离散型的概率空间:
U x0 0, x1 1 p , p P 0 1
相关文档
最新文档