信息论讲义-绪论

合集下载

第一章 绪论

第一章 绪论

可见,消息中包含信息,是信息的载体。得到消息, 从而获得信息。 同一则消息可用不同的形式来载荷。如球赛进展情
况可用电视图像、广播语言、报纸文字等不同形式来
表示。而一则消息也可载荷不同的信息,它可能包含
非常丰富的信息,也可能只包含有很少的信息。
因此,信息与消息是既有区别又有联系的。
又有人说信息就是信号,是一切我们所感知的有意
2. 信息定义上的困惑 信息的各种定义: 信息是事物之间的差异; 信息是事物联系的普遍形式;
信息是物质和能量在时间和空间中分布的不均匀性;
信息是能够用来消除随机不确定性的的东西; ……
各种信息定义都从不同层次、不同侧面描述了信 息的某些特征,但至今尚无一种定义能够为社会各
界所一致接受。
3. 本体论与认识论层次的信息概念 对信息可以从本体论和认识论两个层次上去理解。 本体论层次上的信息概念是广义的概念,将任何 事物的运动状态及其变化方式都理解为信息。
由于认识主体具有感觉能力、理解能力和目的性,
能够感知事物状态及其变化方式的外在形式、内在
含义并能够判断其效用价值,因此在认识论层次研
究信息时,一般要同时考虑到形式、含义和效用三 个因素。
4 . 语法信息、语义信息和语用信息 在认识论层次研究信息时: 把只考虑到形式因素的部分称为语法信息; 把只考虑到含义因素的部分称为语义信息; 把只考虑到效用因素的部分称为语用信息。 显然,语义信息和语用信息涉及认识主体的主观因素。 目前,信息论中主要研究语法信息。
并传递纸,纸就是载体。 承载消息的载体称为信道,现代最便于传输的信
号是电信号和光信号,相应的信道如电缆、传输电
磁波的空间和光缆等。
从通信的实质意义来讲,如果信宿收到的消息是

信息论基础1~8

信息论基础1~8

信息论基础1~81 绪论与概览2 熵相对熵与互信息2.1 熵H(X)=−∑x∈X p(x)logp(x)H(X)=−∑x∈Xp(x)log⁡p(x)2.2 联合熵H(X,Y)=−∑x∈X∑y∈Y p(x,y)logp(x,y)H(X,Y)=−∑x∈X∑y∈Yp(x,y)log⁡p(x,y)H(Y|X)=∑x∈X p(x)H(Y|X=x)H(Y|X)=∑x∈Xp(x)H(Y|X=x)定理2.2.1(链式法则): H(X,Y)=H(X)+H(Y|X)H(X,Y)=H(X)+H(Y|X) 2.3 相对熵与互信息相对熵(relative entropy): D(p||q)=∑x∈X p(x)logp(x)q(x)=Eplogp(x)q(x)D(p||q)=∑x∈Xp(x)lo g⁡p(x)q(x)=Eplog⁡p(x)q(x)互信息(mutual information): I(X;Y)=∑x∈X∑y∈Y p(x,y)logp(x,y)p(x)p(y)=D(p(x,y)||p(x)p(y))I(X;Y) =∑x∈X∑y∈Yp(x,y)log⁡p(x,y)p(x)p(y)=D(p(x,y)||p(x)p(y))2.4 熵与互信息的关系I(X;Y)=H(X)−H(X|Y)=H(Y)−H(Y|X)I(X;Y)=H(X)−H(X|Y)=H(Y)−H(Y|X)互信息I(X;Y)是在给定Y知识的条件下X的不确定度的缩减量I(X;Y)=H(X)+H(Y)−H(X,Y)I(X;Y)=H(X)+H(Y)−H(X,Y)2.5 熵,相对熵与互信息的链式法则定理 2.5.1(熵的链式法则): H(X1,X2,...,X n)=∑ni=1H(Xi|X i−1,...,X1)H(X1,X2,...,Xn)=∑i=1nH(Xi| Xi−1, (X1)定理 2.5.2(互信息的链式法则): I(X1,X2,...,X n;Y)=∑ni=1I(Xi;Y|X i−1,...,X1)I(X1,X2,...,Xn;Y)=∑i=1nI(Xi ;Y|Xi−1, (X1)条件相对熵: D(p(y|x)||q(y|x))=∑x p(x)∑yp(y|x)logp(y|x)q(y|x)=Ep(x,y)logp(Y|X)q( Y|X)D(p(y|x)||q(y|x))=∑xp(x)∑yp(y|x)log⁡p(y|x)q(y|x)=Ep(x,y)log⁡p (Y|X)q(Y|X)定理 2.5.3(相对熵的链式法则): D(p(x,y)||q(x,y))=D(p(x)||q(x))+D(p(y|x)||q(y|x))D(p(x,y)||q(x,y))=D( p(x)||q(x))+D(p(y|x)||q(y|x))2.6 Jensen不等式及其结果定理2.6.2(Jensen不等式): 若给定凸函数f和一个随机变量X,则Ef(X)≥f(EX)Ef(X)≥f(EX)定理2.6.3(信息不等式): D(p||q)≥0D(p||q)≥0推论(互信息的非负性): I(X;Y)≥0I(X;Y)≥0定理2.6.4: H(X)≤log|X|H(X)≤log⁡|X|定理2.6.5(条件作用使熵减小): H(X|Y)≤H(X)H(X|Y)≤H(X)从直观上讲,此定理说明知道另一随机变量Y的信息只会降低X的不确定度. 注意这仅对平均意义成立. 具体来说, H(X|Y=y)H(X|Y=y) 可能比H(X)H(X)大或者小,或者两者相等.定理 2.6.6(熵的独立界): H(X1,X2,…,X n)≤∑ni=1H(Xi)H(X1,X2,…,Xn)≤∑i=1nH(Xi)2.7 对数和不等式及其应用定理 2.7.1(对数和不等式): ∑ni=1ailogaibi≥(∑ni=1ai)log∑ni=1ai∑ni=1bi∑i=1nailog⁡aibi≥(∑i =1nai)log⁡∑i=1nai∑i=1nbi定理2.7.2(相对熵的凸性): D(p||q)D(p||q) 关于对(p,q)是凸的定理2.7.3(熵的凹性): H(p)是关于p的凹函数2.8 数据处理不等式2.9 充分统计量这节很有意思,利用统计量代替原有抽样,并且不损失信息.2.10 费诺不等式定理2.10.1(费诺不等式): 对任何满足X→Y→X^,X→Y→X^, 设Pe=Pr{X≠X^},Pe=Pr{X≠X^}, 有H(Pe)+Pe log|X|≥H(X|X^)≥H(X|Y)H(Pe)+Pelog⁡|X|≥H(X|X^)≥H(X|Y)上述不等式可以减弱为1+Pe log|X|≥H(X|Y)1+Pelog⁡|X|≥H(X|Y)或Pe≥H(X|Y)−1log|X|Pe≥H(X|Y)−1log⁡|X|引理 2.10.1: 如果X和X’独立同分布,具有熵H(X),则Pr(X=X′)≥2−H(X)Pr(X=X′)≥2−H(X)3 渐进均分性4 随机过程的熵率4.1 马尔科夫链4.2 熵率4.3 例子:加权图上随机游动的熵率4.4 热力学第二定律4.5 马尔科夫链的函数H(Yn|Y n−1,…,Y1,X1)≤H(Y)≤H(Y n|Y n−1,…,Y1)H(Yn|Yn−1,…,Y1,X1)≤H(Y)≤H(Yn|Yn−1,…,Y1)5 数据压缩5.1 有关编码的几个例子5.2 Kraft不等式定理5.2.1(Kraft不等式): 对于D元字母表上的即时码,码字长度l1,l2,…,l m l1,l2,…,lm必定满足不等式∑iD−li≤1∑iD−li≤15.3 最优码l∗i=−log Dpili∗=−logD⁡pi5.4 最优码长的界5.5 唯一可译码的Kraft不等式5.6 赫夫曼码5.7 有关赫夫曼码的评论5.8 赫夫曼码的最优性5.9 Shannon-Fano-Elias编码5.10 香农码的竞争最优性5.11由均匀硬币投掷生成离散分布6 博弈与数据压缩6.1 赛马6.2 博弈与边信息6.3 相依的赛马及其熵率6.4 英文的熵6.5 数据压缩与博弈6.6 英语的熵的博弈估计7 信道容量离散信道: C=maxp(x)I(X;Y)C=maxp(x)I(X;Y)7.1 信道容量的几个例子7.2 对称信道如果信道转移矩阵p(y|x)p(y|x) 的任何两行相互置换,任何两列也相互置换,那么称该信道是对称的.7.3 信道容量的性质7.4 信道编码定理预览7.5 定义7.6 联合典型序列7.7 信道编码定理7.8 零误差码7.9 费诺不等式与编码定理的逆定理7.10 信道编码定理的逆定理中的等式7.11 汉明码7.12 反馈容量7.13 信源信道分离定理8 微分熵8.1 定义h(X)=−∫Sf(x)logf(x)dxh(X)=−∫Sf(x)log⁡f(x)dx均匀分布 h(X)=logah(X)=log⁡a正态分布h(X)=1/2log2πeδ2h(X)=1/2log⁡2πeδ2 8.2 连续随机变量的AEP8.3 微分熵与离散熵的关系8.4 联合微分熵与条件微分熵8.5 相对熵与互信息8.6 微分熵, 相对熵以及互信息的性质。

信息论与编码—Matlab中Huffman仿真

信息论与编码—Matlab中Huffman仿真

信息论与编码讲义李益才重庆交通大学信息科学与工程学院2010-9目录第1章绪论 (6)一、信息的概念 (6)二、信息论研究的对象、目的和内容 (6)第2章信源及信源熵 (8)一、本章节教学内容、基本要求、重点与难点 (8)二、信源的描述与分类 (8)二、自信息与互信息81、不确定性与发生概率 (8)2.自信息 (8)3、联合自信息量 (9)4、条件自信息量 (9)5、互信息量和条件互信息量 (10)6.平均自信息(信息熵) (10)7、条件熵 (11)8、熵的基本性质和定理 (11)9、平均互信息量 (13)10、平均互信息量的性质 (14)11、各种熵之间的关系 (16)三、例题 (17)第3章多符号离散信源 (21)一、本章节教学内容、基本要求、重点与难点 (21)二、离散多符号信源 (21)1、相关概念及数学模型 (21)2.离散无记忆信源的序列熵 (22)3.离散有记忆信源的序列熵(平稳) (23)4.马尔可夫信源 (25)三、信源冗余度及意义 (26)四、例题 (27)第4章无失真信源编码 (32)一、信源编码的相关概念 (32)1.编码 (32)2.码的分类 (32)二、定长编码定理 (33)三、变长编码定理 (34)1.单个符号变长编码定理 (34)2.离散平稳无记忆序列变长编码定理 (34)1.香农编码方法 (34)2.费诺码编码方法 (35)3.哈夫曼编码方法 (35)第5章率失真函数与限失真信源编码 (36)一、失真测度与失真矩阵 (36)1.失真函数 (36)2. 失真矩阵 (36)3.平均失真度 (37)二、率失真函数 (37)1.D失真许可信道 (37)2.率失真函数的定义 (37)3.信息率失真函数的性质 (38)三、率失真函数的计算 (39)四、限失真信源编码定理 (40)五、计算 (40)第6章信道及信道容量 (45)一、信道模型 (45)二、离散单符号信道及信道容量 (45)1.离散单符号信道的数学模型 (45)2.信道容量的概念 (45)3.几种特殊信道及其信道容量 (46)4.离散对称信道的信道容量 (47)三、离散多符号信道及信道容量 (49)四、组合信道及信道容量 (50)1.独立并联信道 (50)2.级联信道 (51)五、例题 (51)第7章有噪信道编码(线性分组码) (54)一、本章节教学内容、基本要求、重点与难点 (54)二、基本概念 (54)三、一致监督方程和一致监督矩阵 (54)四、线性分组码的生成矩阵 (57)五、线性分组码的编码 (59)六、线性分组码的最小距离、检错和纠错能力 (60)七、线性分组码的伴随式 (63)1、伴随式和错误检测: (63)2、伴随式计算电路: (65)1、最佳译码准则(最大后验概率译码MAP) (66)2、标准阵列译码 (66)第8章有噪信道编码(循环码) (69)一、本章节教学内容、基本要求、重点与难点 (69)二、循环码的定义 (69)三、循环码的生成多项式 (70)1、循环码的生成矩阵 (70)2、循环码的生成多项式 (70)四、循环码的监督多项式和监督矩阵 (71)1、循环码的监督多项式 (71)2、循环码的监督矩阵 (71)五、系统循环码 (72)六、循环码的编码电路 (73)**多项式运算电路 (73)1. 非系统码编码电路 (78)2. 系统码编码电路 (79)七、循环码的译码 (81)1、接收矢量伴随式计算 (82)八、循环码的通用译码法 (85)(1) 循环码的译码器的组成(梅吉特译码法) (85)(2) 循环码译码电路工作过程 (85)第8章有噪信道编码(循环码) (87)一、本章节教学内容、基本要求、重点与难点 (87)二、卷积码的基本概念 (87)1、什么是卷积码 (87)2、卷积码的生成序列、约束度和约束长度 (87)三、系统形式的卷积码 (90)四、卷积码的编码 (92)1、串行输入、串行输出的编码电路 (92)2、(n-k).m 级移位寄存器构成的并行编码电路(Ⅰ型编码电路) (93)(3) k.m 级移位寄存器编码电路(Ⅱ型编码电路) (94)(4) 结论 (96)五、卷积码的矩阵描述 (96)1、卷积码的生成矩阵 (96)2、卷积码的监督矩阵 (100)六、卷积码的译码 (100)1、卷积码的状态转移图与栅格描述 (100)2、维特比译码的基本原理 (103)第1章绪论一、信息的概念信息论是通信技术、概率论、随机过程、数理统计相结合并逐步发展而形成的一门新兴学科。

信息论第1章 25页

信息论第1章 25页
信宿所需要的消 息形式,它的作用相当于信源编码器的逆过程。
母病愈 ,勿念
26.11.2019
21
信道编码器与译码器
信道编码器的作用 母病▓ ,勿念
在信源编码器输出的代码组上有目的地增加一些监 督码元,使之具有检错或纠错的能力。
信道译码器的作用
Without energy, nothing happens. 没有能源的世界是死寂的世界
Without information, nothing makes sense. 没有信息的世界是混乱的世界
26.11.2019
8
信息的定义
从日常生活知识来理解
英国牛津字典:信息是谈论的事情、新闻和知识 韦氏字典:在观察研究过程中获得的数据情报、新闻和知识 日本广辞苑:信息是所观察事物的知识
定长编码 变长编码
定理
定理
有噪声 信道编码理论
网络信道
保密系统的 信息理论
网络信息理论
压缩编码
最优码构成 Huffman码
Fano码
码构成 纠错码
网络最佳码
保密码
26.11.2019
代数编码 卷积码
7
1.3 信息的基本概念
物质世界的三大支柱:物质、能量和信息
Without materials, there is nothing. 没有物质的世界是虚无的世界
信宿
干扰 噪声源
26.11.2019
18
数字通信系统模型
信源 信源编码
加密 信道编码
加密 密钥

解密 密钥

信宿 信源解码
解密 信道解码
干扰源
26.11.2019
19

第一章 绪论

第一章  绪论

第一章 绪论
1
第一章 绪论
z 什么是信息 z 通信系统模型 z 信息论的研究内容 z 信息论的形成和发展 z 概率论知识的回顾
1.1 什么是信息?
z 信息论中最基本、最重要的概念
z 被广泛使用的词汇
¾ 信息社会、信息学院、IT等
z 信息 – Information
¾ 你如何获得信息?(电视,上网,电话,…)
6
第一章 要点总结
z 信息的定义
¾ 什么是信息?与消息、信号的区别
z 理解通信系统的基本模型
¾ 信息论的研究内容
z 了解信息论的发展概况
第一章 绪论
z 什么是信息 z 通信系统模型 z 信息论的研究内容 z 信息论的形成和发展 z 概率论知识的回顾
预备知识
z 符号约定 ¾ 大写字母 X ,Y, Z 等表示随机变量 ¾ 小写字母 xi , yj , x1,..., xn, y1,..., ym 表示随机变
z 实例二
¾ 刘翔退赛?
z 实例三
¾…
1.1 什么是信息? - 信息的定义
不确定性的大小与事件发生的概率有关 不确定性是概率的函数
因此,信息量可以表示为概率的函数
1.1 什么是信息? - 信息的定义
z 概率论中的基本概念
¾ 样本空间、概率空间
⎡X ⎢⎣P( X
⎤ )⎥⎦
=
⎡ ⎢ ⎣
x1 p( x1
)
1.4 信息论的形成与发展 – 香农信息论
z 理论的数学完善
¾ 费诺不等式,香农信道编码逆定理的证明,恶劣信道容 量的迭代算法
z 编码理论的发展(信源编码和信道编码的构造方法)
¾ 信源编码的发展
唯一可译变长码的Kraft不等式,无失真信源编码方法 (Huffman,Shannon-Fano,Arithmatic,LZW)

《信息论与编码基础》第1章 绪论

《信息论与编码基础》第1章 绪论

7
课程讨论主要内容
第3章 离散信道及其信道容量 信道的数学模型及分类 信道疑义度与平均互信息 平均互信息的特性 离散无记忆扩展信道 离散信道的信道容量 信源与信道的匹配
8
课程讨论主要内容
第4章 波形信源及波形信道 波形信源的统计特性和离散化 连续信源和波形信源的信息测度 连续信源熵的性质及最大差熵定理 具有最大差熵的连续信源 连续信道和波形信道的分类 连续信道和波形信道的信息传输率 连续信道和波形信道的信道容量
9
课程讨论主要内容
第5章 基本的信源和信道编码定理 无失真信源编码定理 编码器的概念 等长码 等长信源编码定理 变长码 变长信源编码定理(香农第一定理) 有噪信道编码定理 错误概率与编译码规则 有噪信道编码定理(香农第二定理) 联合信源信道编码定理
10
课程讨论主要内容
第6章 保真度准则下的信源编码 失真的测度 信息率失真函数及其性质 离散无记忆信源的信息率失真函数 保真度准则下的信源编码定理(香农第三定理) 联合有失真信源信道编码定理
1.1 信息的一般概念
19
在通信中对信息的表达分为三个层次:信号、消息、信息。 信号:是信息的物理表达层,是三个层次中最具体的层次。 它是一个物理量,是一个载荷信息的实体,可测量、可描 述、可显示。 消息(或称为符号):是信息的数学表达层,它虽不是一个 物理量,但是可以定量地加以描述,它是具体物理信号的 进一步数学抽象。 可将具体物理信号抽象为两大类型: 离散(数字)消息:由随机序列描述的一组未知量: X=(X1, …, Xi , …, Xn) 连续(模拟)消息:由随机过程描述的未知量:X( t, ω) 信息:是信号与消息的更抽象的表达层次。
1.1 信息的一般概念
17

信息论-01

信息论-01

克劳德· 艾尔伍德· 香农(Claude Elwood Shannon)
第二章 离散信源及其信息测度
信源的数学模型及分类 信源的自信息* 信息熵及基本性质* 离散无记忆扩展信源 离散平稳信源 马尔科夫信源* 信源的剩余度与自然语言的熵
2.1信源的数学模型及分类 离散信源:信源输出的都是单个符号的消息,符 号集的取值是有限的或可数的
i 1
比特/符号
传输的平均信息速率为
R nH ( X ) 198.5
比特/秒
loglog2111phppphppapapxhqiqiiiqii???????????2121qqpppapapap????p基本性质对称性确定性非负性扩展性可加性强可加性递增性极值性上凸性1信息熵的对称性当变量函数的值不变即的顺序任意互换时熵12113221???qqqqpppphpppphppph???qppp21?2信息熵的确定性3信息熵的非负性00001h001h01h?????00llog?????iqhhhph4信息熵的扩展性121???iiqppppp?p?lim??322110qqqqppphppph??????5可加性如果有两个随机变量x和y他们彼此是统计独立的概率分布分别为21pp?1q与则有则有hxyhxhynp2mqq?即其中1212111mnmnmqpqpqpqpqph??121mmnnqqhppph??????i?nip11??j?mjq11??j??i?mjinqp1116信息熵的强可加性两个相互关联的信源x和y的联合信源的熵等于信源x的熵加上在x已知条件下信源y的条件熵xyhxhxyh??7信息熵的递增性211211mnmnqqqppph?????21121nmnnmnnnnpqpqpqhppppph?????11???inipnmjjpq???1其中8信息熵的极值性最大离散熵定理qqqqhppphqlog11121????9信息熵的上凸性熵函数格??p是概率矢量的严型凸函数

信息论-信息论课件ch1--用户行为识别分析

信息论-信息论课件ch1--用户行为识别分析

011
011
111
011
111
00
x1
10
000
100
x1
000
100
x1
010
110
x2
010
110
x2
(a) 无检错
(b) 可检错 (奇校验)
(c) 可纠错(纠一个错)
§1.2.1 通信系统模型
调制器
功能:将编码器的输出符号变成适合信道传输的信号 目的:提高传输效率
§1.2.1 通信系统模型
信息论
第1章 绪论
授课教师:顾昕钰
北京邮电大学信息论
• 顾昕钰 副教授
- 1996-2005 北邮(本硕博) - 2005-2013 Ericson Research Institute - 2013-今 北邮
• 信息与通信工程学院 先进网络技术实验室 (Advanced Network Technology Lab, ANT Lab)
编码器(Encoder)
l 编码器的功能是将消息变成适合于信道传输的信号 l 编码器包括:
信源编码器(source encoder) 信道编码器(channel encoder) 调制器(modulator)
信源编码器
信道编码器
消息
符号
符号
图1.2.2 编码器的组成
调制器
信号
§1.2.1 通信系统模型
★★★★★★★★★★★★★★★★★★★★★★★★★★★
Page 9
§1.1.1 信息论的产生
通信的基本 问题 。
在一点精确地或近似地恢复另一点所选择的消息。
通信的三项 性能指标
传输的有效性 传输的可靠性 传输的安全性
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第一章绪论主要内容:(1)信息论的形成和发展;(2)信息论研究的分类和信息的基本概念;(3)一般通信系统模型;(4)目前信息论的主要研究成果。

重点:信息的基本概念。

难点:消息、信号、信息的区别和联系。

说明:本堂课作为整本书的开篇,要交待清楚课程开设的目的,研究的内容,对学习的要求;在讲解过程中要注意结合一些具体的应用实例,避免空洞地叙述,以此激发同学的学习兴趣,适当地加入课堂提问,加强同学的学习主动性。

课时分配:2个课时。

板书及讲解要点:“信息”这个词相信大家不陌生,几乎每时每划都会接触到。

不仅在通信、电子行业,其他各个行业也都十分重视信息,所谓进入了“信息时代”。

信息不是静止的,它会产生也会消亡,人们需要获取它,并完成它的传输、交换、处理、检测、识别、存储、显示等功能。

研究这方面的科学就是信息科学,信息论是信息科学的主要理论基础之一。

它研究信息的基本理论(Information theory),主要研究可能性和存在性问题,为具体实现提供理论依据。

与之对应的是信息技术(Information Technology),主要研究如何实现、怎样实现的问题。

它不仅是现代信息科学大厦的一块重要基石,而且还广泛地渗透到生物学、医学、管理学、经济学等其他各个领域,对社会科学和自然科学的发展都有着深远的影响。

1.1 信息论的形成和发展信息论理论基础的建立,一般来说开始于香农(C.E.shannon)研究通信系统时所发表的论文。

随着研究的保深入与发展,信息论具有了较为宽广的内容。

信息在早些时期的定义是由奈奎斯持(Nyquist,H.)和哈特莱(Hartley,L.V.R.)在20世纪20年代提出来的。

1924年奈奎斯特解释了信号带宽和信息速率之间的关系;1928年哈特莱最早研究了通信系统传输信息的能力,给出了信息度量方法;1936年阿姆斯特朗(Armstrong)提出了增大带宽可以使抗干扰能力加强。

这些工作都给香农很大的影响,他在1941—1944年对通信和密码进行深入研究,用概率论的方法研究通信系统,揭示了通信系统传递的对象就是信息,并对信息给以科学的定量描述,提出了信息嫡的概念。

指出通信系统的中心问题是在噪声下如何有效而可靠地传送信息以及实现这一目标的主要方法是编码等。

这一成果于1948年以《通信的数学理论》(A mathematical theory of communication)为题公开发表。

这是一篇关于现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。

香农因此成为信息论的奠基人。

50年代信息论在学术界引起了巨大的反响。

1951年美国IRE成立了信息论组,并于1955年正式出版了信息论汇刊。

60年代信道编码技术有较大进展,使它成为信息论的又一重要分支。

它把代数方法引入到纠错码的研究,使分组码技术发展到了高峰,找到了大量可纠正多个错误的码,而且提出了可实现的译码方法。

其次是卷积码和概率译码有了重大突破;提出了序列译码和Viterbi译码方法。

信源编码的研究落后于信道编码。

香农1959年的文章(Coding theorems for a discrete source with a fidelity criterion)系统地提出了信息率失真理论,它是数据压缩的数学基础,为各种信源编码的研究奠定了基础。

到70年代,有关信息论的研究,从点与点问的单用户通信推广到多用户系统的研究。

1972年盖弗(Cover)发表了有关广播信道的研究.以后陆续有关十多接入信道和广播信道模型的研究,但由于这些问题比较难,到目前为止、多用户信息论研究得不多,还有许多尚待解决的问题。

1.2 信息论研究的分类和基本概念任何一门科学都有它自己的基本概念,理解和掌握这些基本概念是学习这门科学的基础。

传统科学的基本概念是物质和能量,而信息论的最基本和最重要的概念就是信息。

信息既是信息论的出发点,也是它的归宿。

具体地说,信息论的出发点是认识信息的本质和它的运动规律;它的归宿则是利用信息来达到某种具体的目的。

什么是信息?当今社会,“信息”一词,在各种场合都被广泛采用,但如同数学中的“集合”一词一样,要给它下一个严格的定义却异常之难。

即使是信息论的奠基人香农在其著名论文“通信的数学理论”中,也没有给信息下一个明确的定义。

香农论文发表之后,由于其方法新颖,引来许多专家学者对信息进行深入研究,研究中碰到的首要问题就是要给“信息”一词下一个明确的定义。

很多学者都给“信息”下过定义,流行的说法不下百种,而且对此还展开了一些重要的哲学争论,到现在为止还没有一个定论。

各种说法要么出发点不同,要么所站角度不一样,有些甚至带有较明显的学科倾向,但都在一定层面上对信息概念做了描述。

信息:一个既复杂又抽象的概念。

广义:消息、情报、知识把信息的形式、内容等全部包含在内技术术语:计算机处理(通信传输)的对象——数据、文字、记录指信息的具体表现形式(不考虑信息的具体内容)科学名词:统计数学、通信技术(用严格的数学公式定义的科学名词,它与内容无关,而且不随信息具体表现形式的变化而变化,因而也独立于形式。

)它反映了信息表达形式中统计方面的性质,是一个统计学上的抽象概念。

信息论是在信息可以量度的基础上,研究有效地和可靠地传递信息的科学,它涉及信息量度、信息特性、信息传输速率、信道容量、干扰对信息传输的影响等方面的知识。

在信息论和通信理论中经常会遇到信息、消息和信号这三个既有联系又有区别的概念:信息是事物运动状态或存在方式的不确定性的描述。

——香农信息的定义人们从观察得到的数据中获得信息。

信息是抽象的意识或知识,它是看不见、摸不到的。

人脑的思维活动产生的一种想法,当它仍储存在脑子中的时候它就是一种信息。

消息是指包含有信息的语言、文字和图像等。

——感觉器官所感知我们每天从广播、报纸和电视中获得各种新闻及其他消息。

在通信中,消息指担负着传送信息任务的单个符号或符号序列。

这些符号包括字母、文字、数字和语言等。

消息是具体的,它载荷信息,但它不是物理性的。

信号是消息的物理体现。

——可测量为了在信道上传输消息就必须把消息加载(调制)到具有某种物理特征的信号上去。

信号是信息的载荷子或载体,是物理性的。

如电(光)信号.在通信系统中,实际传输的是信号,但本质内容的是信息。

信息包含在信号之中,信号是信息的载体。

通信的结果是消除或部分消除不确定性,从而获得信息。

信息的基本概念在于它的不确定性,已确定的事物都不含信息。

其特征有:○接收者在收到信息之前,对它的内容是不知道的,所以,信息是新知识、新内容;○信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识;○信息可以产生,也可以消失,同时信息可以被携带、贮存及处理;○信息是可以量度的,信息量有多少的差别例气象预报:1/2,1/4,1/8,1/8()X p x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦晴阴大雨小雨甲:()1/4,1/4,1/4,1/4Y p y ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦晴阴大雨小雨乙:“甲地晴”比“乙地晴”的不确定性来的小。

由此可知某一事物状态出现的概率越小,其不确定性越大,反之,某一事物状态出现的概率接近于1,即预料中肯定会出现的事件,那它的不确定性就接近于零。

某一事物状态的不确定性的大小,与该事物可能出现的不同状态数目和各状态出现的概率大小有关。

既然不确定性的大小能够度量,可见信息是可以测度的。

概率空间:⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡)(),(),(,,)(11n i ni x p x p x p x x x x p X样本空间:某事物各种可能出现的不同状态。

先验概率p (x i ):就是选择符号x i 作为消息的概率。

对x i 的不确定性可表示为先验概率p (x i )的倒数的某一函数。

自信息: )(1log )(i i x P x I =互信息: )(1log )(1log );(j i i j i y x p x P y x I -=后验概率p (x i |y j ):接收端收到消息y j 后而发送端发的是x i 的概率香农定义的信息概念在现有的各种理解中,是比较深刻的,它有许多优点。

⑴它是一个科学的定义,有明确的数学模型和定量计算。

⑵它与日常用语中的信息的含意是一致的。

例如,设某一事件x i 发生的概率等于1,即x i 是预料中一定会发生的必然事件,如果事件x i 果然发生了,收信者将不会得到任何信息(日常含义),不存在任何不确定性。

因为p (x i ) = 1,所以 0)(1log )(==i i x p x I即自信息等于零。

反之如果x i 发生的概率很小,一旦x i 果然发生了,收信者就会觉得很意外和惊讶,获得的信息量很大。

因为p(x i ) <<1,故得: )(1log )(i i x P x I >>1⑶定文排除了对信息一词某些主观上的含意。

根据上述定义,同样一个消息对任何一个收信看来说,所得到的信息量(互信息)都是一样的。

因此,信息的概念是纯粹的形式化的概念。

但是,香农定义的信息有其局限性,存在一些缺陷。

首先,这个定义的出发点是假定事物状态可以用一个以经典集合论为基础的概率模型来描述。

然而实际存在的某些事物运动状态要寻找一个合适的概率模型往往是非常困难的。

对某些情况来讲,是否存在这样一种模型还值得探讨。

其次,这个定义和度量没有考虑收信者的主观特性和主观意义,也撇开了信息的具体含意、具体用途、重要程度和引起后果等因素。

这就与实际情况不完全一致。

信息是信息论研究的主要内容。

根据研究内容范围的大小,可对信息论进行分类:狭义信息论:也称经典信息论。

主要研究:信息的测度信道容量信源编码信道编码这部分内容是信息论的基础理论,又称香农信息理论。

一般信息论主要是研究信息传输和处理问题。

除了香农理论以外,还包括噪声理论、信号滤波和预测、统计检测与估计理论、调制理论、信息处理理论以及保密理论等。

后一部分内容是以美国科学家维纳为代表。

广义信息论它不仅包括上述两方面的内容,而且包括所有与信息有关的自然和社会领域。

如模式识别、计算机翻译、心理学、遗传学、神经生理学、语言学、语义学甚至包括社会学中有关信的问题。

在本课程中,我们讨论的范围限于一般信息论之内。

1.3 一般通信系统模型各种通信系统如电报、电话、电视、广播、遥测、遥控、雷达和导航等,虽然它们的形式和用途各不相同,但本质是相同的。

都是信息的传输系统。

图1-1示的模型可解释各种通信系统中的一些共性问题,对这些共性问题进行总结分析,会得到一些重要的基本概念。

通常,实际的信息传输系统中,事知给定的是图中橙色框出的部分,即发出信息的信源,接收信息的信宿和传递信息的物理媒质信道,其余中间环节都是由人来设计的。

信息传输性能的好坏,很大程度取决于这些中间环节设计的优劣。

相关文档
最新文档