信息论
信息论的形成、发展及主要内容

信息论的形成、发展及主要内容一、引言信息论是一门研究信息传输、存储和处理的科学,其应用范围涵盖了通信、数据压缩、密码学等多个领域。
本文将介绍信息论的起源、经典信息论的发展、现代信息论的突破以及信息论在各个领域的应用。
二、信息论的起源信息论的起源可以追溯到20世纪初,当时电信和广播业开始快速发展,需要有一种度量信息的方法。
1928年,美国数学家哈特利提出用消息发生的概率来定义消息的熵,从而为信息论的发展奠定了基础。
三、经典信息论的发展1948年,美国数学家香农在《贝尔系统技术》杂志上发表了经典论文《通信的数学理论》,标志着信息论的诞生。
香农提出了信息的度量方法,即信息熵,并且给出了信息的传输速率的上限。
此外,香农还研究了信息的存储和检索问题,提出了数据压缩的理论基础。
四、现代信息论的突破随着技术的发展,现代信息论在经典信息论的基础上有了新的突破。
首先,现代信息论不仅关注信息的传输和存储问题,还关注信息的处理和理解问题。
其次,现代信息论引入了更多的数学工具和概念,如概率图模型、贝叶斯网络等,使得信息论的应用更加广泛和深入。
五、信息论在通信中的应用信息论在通信领域的应用是最为广泛的。
例如,香农的信道编码定理告诉我们,在传输过程中可以通过增加冗余信息来降低错误概率,从而提高通信的可靠性。
此外,信息论还被应用于调制解调、信号检测和同步等领域。
六、信息论在数据压缩中的应用数据压缩是信息论的一个重要应用领域。
通过去除数据中的冗余信息,数据压缩可以减小数据的存储空间和传输时间。
例如,香农提出的哈夫曼编码是一种有效的无损数据压缩算法,被广泛应用于图像、视频和音频数据的压缩。
七、信息论在密码学中的应用密码学是信息安全领域的重要分支,而信息论为其提供了理论基础。
在密码学中,信息论用于分析信息的保密性、认证性、完整性和可用性等安全属性。
例如,基于信息熵的加密算法可以用于评估加密数据的保密性程度。
此外,信息论还被应用于数字签名、身份认证等领域。
信息论重点 (新)

1.消息定义信息的通俗概念:消息就是信息,用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来,就成为消息,消息中包含信息,消息是信息的载体。
信号是表示消息的物理量,包括电信号、光信号等。
信号中携带着消息,信号是消息的载体。
信息的狭义概念(香农信息):信息是对事物运动状态或存在方式的不确定性的描述。
信息的广义概念 信息是认识主体(人、生物、机器)所感受的和表达的事物运动的状态和运动状态变化的方式。
➢ 语法信息(语法信息是指信息存在和运动的状态与方式。
) ➢ 语义信息(语义信息是指信宿接收和理解的信息的内容。
) ➢ 语用信息(语用信息是指信息内容对信宿的有用性。
)2.狭义信息论、广义信息论。
狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。
它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。
广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。
包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。
3.自信息 互信息 定义 性质及物理意义 自信息量: ()log ()i x i I x P x =-是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特;对数底为e 时,其单位为奈特;对数底为10时,其单位为哈特自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。
自信息物理意义: 1.事件发生前描述该事件发生的不确定性的大小 2.事件发生后表示该事件所含有(提供)的信息量 互信息量:互信息量的性质:1) 互信息的对称性2) 互信息可为零3) 互信息可为正值或负值4) 任何两个事件之间的互信息不可能大于其中任一事件的自信息互信息物理意义: 1.表示事件 yj 出现前后关于事件xi 的不确定性减少的量 2.事件 yj 出现以后信宿获得的关于事件 xi 的信息量4.平均自信息性质 平均互信息性质平均自信息(信息熵/信源熵/香农熵/无条件熵/熵函数/熵):(;)()(|)i j i i j I x y I x I x y =-log ()log (|)(1,2,,;1,2,,)i i jp x p x y i n j m =-+=⋯=⋯(|)log ()i j i p x y p x =1()[()][log ()]()log ()ni i i i i H X E I x E p x p x p x ===-=-∑熵函数的数学特性包括:(1)对称性 p =(p1p2…pn)各分量次序可调换 (2)确定性p 中只要有为1的分量,H(p )为0(3)非负性离散信源的熵满足非负性,而连续信源的熵可能为负。
信息论

信息论第一章概论1.信息、消息、信号的定义及关系。
定义信息:事物运动状态或存在方式的不确定性的描述。
消息:指包含有信息的语言、文字和图像等。
信号:表示消息的物理量,一般指随时间而变化的电压或电流称为电信号。
关系信息和消息信息不等于消息。
消息中包含信息,是信息的载体。
同一信息可以用不同形式的消息来载荷。
同一个消息可以含有不同的信息量。
信息和信号信号是消息的载体,消息则是信号的具体内容。
信号携带信息,但不是信息本身。
同一信息可用不同的信号来表示,同一信号也可表示不同的信息。
2. 通信系统模型,箭头上是什么?通信的目的及方法。
通信的目的:是为了提高通信的可靠性和有效性。
信源编码:提高信息传输的有效性。
(减小冗余度)信道编码:提高信息传输的可靠性。
(增大冗余度)第二章 信源及其信息量★信源发出的是消息。
信源分类1、信源按照发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源。
2、根据各维随机变量的概率分布是否随时间的推移而变化将信源分为平稳信源和非平稳信源。
单符号离散信源离散无记忆信源 无记忆扩展信源 离散平稳信源离散有记忆信源 记忆长度无限记忆长度有限(马尔可夫信源)一、单符号离散信源单符号离散信源的数学模型为定义:一个随机事件发生某一结果后所带来的信息量为自信息量。
定义为其发生概率对数的负值。
以 奇才 单位:•对数以2为底,单位为比特 (bit ) (binary unit ) •对数以e 为底,单位为奈特 (nat ) (nature unit)•对数以10为底,单位为笛特(det) (decimal unit) 或哈特 (hart) 物理含义:在事件xi 发生以前,等于事件xi 发生的不确定性的大小;在事件xi 发生以后,表示事件xi 所含有或所能提供的信息量。
性质:①I(x i )是非负值.②当p(x i )=1时,I(x i )=0. ③当p(x i )=0时,I(x i )=∞.④I(x i ) 是p(x i )的单调递减函数.联合自信息量条件自信息量自信息量、条件自信息量和联合自信息量之间有如下关系式:I(x i y j )= I(x i )+ I(y j / x i ) = I(y j )+ I(x i / y j )⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡)(,),(,),(),( ,, ,, , )( 2121n i n i x p x p x p x p x x x x X P X )(log )( i i x p x I -=)(log )( j i j i y x p y x I -=1)(,1)(01=≤≤∑=ni i i x p x p定义:各离散消息自信息量的数学期望,即信源的平均信息量.单位:比特/符号 物理含义: ① 信源熵H(X)表示信源输出后,离散消息所提供的平均信息量. ② 信源熵H(X)表示信源输出前,信源的平均不确定度. ③ 信源熵H(X)反映了变量X 的随机性.信源符号的概率分布越均匀,则平均信息量越大; 确定事件,不含有信息量。
第二章 信息论基本概念

一个信源总是包含着多个符号消息,各个符号消息又按概率 空间的先验概率分布,它的不确定度是各个符号的不确定度的数 学期望(即概率加权的统计平均值) 它的熵(平均不确定度)H(X)定义为: H(X)= E[I(x)]= P(X)I(X) =- P(X)log2P(X) X
X
若信源X中的符号的概率空间简化表示为: X1,X2, „,XN X,PX= P1, P2,„, PN 则熵(平均不确定度)H(X)可写成: N H(X)=- PilogPi 注意:∵ I(X)为非负, P(X)为非负,且0≤P(X)≤1 ∴ H(X)也为非负
0.8 0.2
其中X1表示摸出的球为红球事件,X2表示摸出的球为白球事件
若告知摸出的是红球,则事件的自信息量为 I(X1)=-logP(X1)=-log20.8 bit 若告知摸出的是白球,则事件的自信息量为 I(X2)=-logP(X2)=-log20.2 bit 若取回后又放回摸取,如此摸取n此,红球出现的次数nP(X1), 白球出现的次数为nP(X2),则总信息量为 I=nP(X1)I(X1)+nP(X2)I(X2) 而平均随机摸取一次所获得的信息量为 H(X)= 1/n [nP(X1)I(X1)+nP(X2)I(X2)] =-[P(X1)logP(X1)+P(X2)logP(X2)] 2 =- P(Xi)logP(Xi)
符号xi对联合事件符号yj zk之间的互信息量定义为: I(xi ; yj zk)= logP(xi|yj zk)/ P(xi) „„„„*
三. 条件互信息量 含义:在给定zk条件下,xi与yj之间的互信息量
条件互信息量I(xi ; yj|zk)定义为: I(xi ; yj|zk)= logP(xi|yj zk)/ P(xi|zk) 从上式,可使*式写成: I(xi ; yj zk)= I(xi ; zk) + I(xi ; yj|zk) 推导如下: I(xi ; yj zk)= log P(xi|yj zk)/ P(xi)
通信的数学基石——信息论

通信的数学基石——信息论引言1948年,美国科学家香农(C. E. Shannon)发表了题为“通信的数学理论”论文,这篇划时代学术论文的问世,宣告了信息论的诞生。
文中,香农创造性地采用概率论的方法研究通信的基本问题,把通信的基本问题归结为“一方精确或近似地重现出另一方所选择的消息”,并针对这一基本问题给予了“信息”科学定量的描述,第一次提出了信息熵的概念,进而给出由信源、编码、信道、译码、信宿等组建的通信系统数学模型。
如今,信息的概念和范畴正不断地被扩大和深化,并迅速地渗透到其他相关学科领域,信息论也从狭义信息论发展到如今的广义信息论,成为涉及面极广的信息科学。
信息论将信息的传递看作一种统计现象,运用概率论与数理统计方法,给出信息压缩和信息传输两大问题的解决方法。
针对信息压缩的数学极限问题,给出了信息源编理论;针对信息传输的极限问题,则给出了信道编码理论。
《信息论基础与应用》在力求降低信息论学习对数学理论要求下,加强了信息论中基础概念的物理模型和物理意义的阐述;除此这外,该书将理论和实际相结合,增加了在基础概念的理解基础上信息论对实际通信的应用指导,并给出了相关应用的MATLAB程序实现,以最大可能消除学生对信息论学习的疑惑。
全书共分7章,第1章是绪论,第2章介绍信源与信息熵,第3章介绍信道与信道容量,第4章给出信源编码理论,第5章给出信道编码理论,在此基础上,第6章、第7章分别介绍了网络信息理论和量子信息理论。
什么是信息论什么是信息论?信息论就是回答:1)信息是如何被度量?2)如何有效地被传输?3)如果接收到的信息不正确,如何保证信息的可靠性?4)需要多少内存,可实现信息的存储。
所有问题的回答聚集在一起,形成的理论,称为信息论。
总之,信息论是研究信息的度量问题,以及信息是如何有效地、可靠地、安全地从信源传输到信宿,其中信息的度量是最重要的问题,香农首次将事件的不确定性作为信息的度量从而提出了信息熵的概念。
信息论教学大纲

信息论教学大纲一、课程概述信息论是一门应用概率论、随机过程、数理统计和近世代数等方法,来研究信息的存储、传输和处理中一般规律的学科。
它为通信、计算机科学、统计学等多个领域提供了理论基础。
本课程旨在使学生系统地掌握信息论的基本概念、基本原理和基本方法,培养学生运用信息论知识分析和解决实际问题的能力。
二、课程目标1、使学生理解信息的度量、信源和信道的数学模型。
2、掌握信息熵、互信息、信道容量等重要概念和计算方法。
3、能够运用信息论的原理分析通信系统的性能。
4、培养学生的数学推导和逻辑思维能力。
三、课程内容(一)信息的基本概念1、信息的定义和性质介绍不同领域对信息的定义和理解。
探讨信息的不确定性、可度量性等性质。
2、信息的分类按照产生的领域、作用、表现形式等进行分类。
(二)信息的度量1、自信息量定义和计算方法。
举例说明不同概率事件的自信息量。
2、联合自信息量与条件自信息量两者的概念和计算。
与自信息量的关系。
3、信息熵熵的定义和物理意义。
计算离散信源的熵。
(三)信源1、离散无记忆信源数学模型和特点。
熵的性质和计算。
2、离散有记忆信源介绍马尔可夫信源。
计算有记忆信源的熵。
3、连续信源连续信源的熵。
最大熵定理。
(四)信道1、信道的分类按照输入输出的特点分类。
举例说明不同类型信道。
2、信道的数学模型转移概率矩阵。
信道容量的概念。
(五)信道容量1、离散无记忆信道容量计算方法和步骤。
举例分析。
2、离散有记忆信道容量简要介绍计算方法。
3、连续信道容量香农公式及其应用。
(六)信息率失真函数1、失真测度常见的失真度量方法。
失真矩阵的概念。
2、信息率失真函数定义和性质。
计算方法。
(七)信源编码1、无失真信源编码定长编码定理和变长编码定理。
哈夫曼编码方法及应用。
2、有失真信源编码率失真理论。
(八)信道编码1、信道编码的基本概念差错控制的方法。
信道编码的分类。
2、线性分组码生成矩阵和校验矩阵。
纠错能力分析。
四、教学方法1、课堂讲授讲解基本概念、原理和方法,通过实例帮助学生理解。
第一章信息论基础介绍
信号滤波 预测理论
调制 理论
香农 信息论
噪声 理论
统计检测 估计理论
虽然维纳和香农等人都是运用概 率和统计数学的方法研究准确或近似 再现消息的问题,都是通信系统的最 优化问题。但他们之间有一个重要的
区别。
发送
接收
维纳研究的重点是在接收端。研究 消息在传输过程中受到干扰时,在接收 端如何把消息从干扰中提取出来,并建 立了最佳过滤理论(维纳滤波器)、统 计检测与估计理论、噪声理论等。
• 编码目的——提高系统对某一方面的要求 优化系统某一方面的性能指标
课程介绍(续)
• 通信系统主要性能指标——有效性
可靠性
安全性 • 编码分类——
信源编码——提高通信系统的有效性 信道编码——提高通信系统的可靠性
保密编码——保证通信系统的安全性
• 研究——信息的度量(信源熵)、信道容量、信息 率失真函数(香农三定理)、密码学
虚假
不定
6 按照信息的传递方向 前馈 反馈
7 按照信息的生成领域 宇宙
自然 社会 思维
8 按照信息的应用部门
工 农 军 政 科 文 经 市 管 业 业 事 治 技 化 济 场 理
9 按照信息的来源
语 声 图 象 文 字 数 据 计 算
10 按照信息载体的性质
电 磁 语 声 图 象 文 字 光 学 生 物
1
香农信息论
无失真信源 编码定理
信 源 熵
香农信息论
信 道 编 码 密 码 信 源 编 码
1.4 编码理论的发展
1.4.1 无失真信源编码
• 1948年,香农发表“通信的数学理论”,标志着信息论的正 式诞生 • C.E.Shannon, A Mathematical Theory of communication, • Bell System Tech.J, vol.27, PP 379-423, July 1948 • 在前人工作基础上,用概率统计方法研究通信系统 • 揭示:通信系统传递的对象——信息 • 提出:信息熵、信息量 • 指出:通信系统的中心问题—— 噪声背景下如何有效、可靠地传递信息 实现的主要方法——编码 • 提出了无失真信源编码定理、信道编码定理
信息论基础
信息论基础
信息论是一门研究信息传输和处理的科学。
它的基础理论主要有以下几个方面:
1. 信息的定义:在信息论中,信息被定义为能够消除不确定性的东西。
当我们获得一条消息时,我们之前关于该消息的不确定性会被消除或减少。
信息的量可以通过其发生的概率来表示,概率越小,信息量越大。
2. 熵:熵是一个表示不确定性的量。
在信息论中,熵被用来衡量一个随机变量的不确定性,即随机变量的平均信息量。
熵越大,表示随机变量的不确定性越高。
3. 信息的传输和编码:信息在传输过程中需要进行编码和解码。
编码是将消息转换为一种合适的信号形式,使其能够通过传输渠道传输。
解码则是将接收到的信号转换回原始消息。
4. 信道容量:信道容量是指一个信道能够传输的最大信息量。
它与信道的带宽、噪声水平等因素相关。
信道容量的
计算可以通过香浓定理来进行。
5. 信息压缩:信息压缩是指将信息表示为更为紧凑的形式,以减少存储或传输空间的使用。
信息压缩的目标是在保持
信息内容的同时,尽可能减少其表示所需的比特数。
信息论还有其他一些重要的概念和理论,如互信息、信道
编码定理等,这些都是信息论的基础。
信息论的研究不仅
在信息科学领域具有重要应用,还在通信、计算机科学、
统计学等领域发挥着重要作用。
信息论
信息论信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。
信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。
信息传输和信息压缩是信息论研究中的两大领域。
这两个方面又由信息传输定理、信源-信道隔离定理相互联系。
它主要是研究通讯和控制系统中普遍存在着信息传递的共同规律以及研究最佳解决信息的获限、度量、变换、储存和传递等问题的基础理论。
信息论发展的三个阶段第一阶段:1948年贝尔研究所的香农在题为《通讯的数学理论》的论文中系统地提出了关于信息的论述,创立了信息论。
第二阶段:20世纪50年代,信息论向各门学科发起冲击;60年代信息论进入一个消化、理解的时期,在已有的基础上进行重大建设的时期。
研究重点是信息和信源编码问题。
第三阶段:到70年代,由于数字计算机的广泛应用,通讯系统的能力也有很大提高,如何更有效地利用和处理信息,成为日益迫切的问题。
人们越来越认识到信息的重要性,认识到信息可以作为与材料和能源一样的资源而加以充分利用和共享。
信息的概念和方法已广泛渗透到各个科学领域,它迫切要求突破申农信息论的狭隘范围,以便使它能成为人类各种活动中所碰到的信息问题的基础理论,从而推动其他许多新兴学科进一步发展。
信息科学和技术在当代迅猛兴起有其逻辑必然和历史必然。
信息是信息科学的研究对象。
信息的概念可以在两个层次上定义:本体论意义的信息是事物运动的状态和状态变化的方式,即事物内部结构和外部联系的状态和方式。
认识论意义的信息是认识主体所感知、表达的相应事物的运动状态及其变化方式,包括状态及其变化方式的形式、含义和效用。
这里所说的“事物”泛指一切可能的研究对象,包括外部世界的物质客体,也包括主观世界的精神现象;“运动”泛指一切意义上的变化,包括思维运动和社会运动;“运动状态”指事物运动在空间所展示的性状和态势;“运动方式”是事物运动在时间上表现的过程和规律性。
信息论
信息论信息论是一门研究信息传输和处理的学科,它涉及信号的传输、存储和处理,以及信息的量化和表示等方面。
信息论的概念最早由美国数学家克劳德·香农于1948年提出,它是通信工程和计算机科学的基础理论之一。
信息论的研究对象是信息。
那么什么是信息呢?根据香农的定义,信息是一种排除干扰的度量,它代表了一个事件的不确定性的减少。
信息的传递需要通过信号来实现,信号是用来传递信息的载体。
在传输过程中,信号可能会受到各种干扰的影响,导致信息的丢失或损坏。
信息论的目标就是通过对信号和信息的处理,使得信息的传输更加可靠和高效。
在信息论中,最基本的概念之一是熵。
熵是信息的度量方式,它表示了信源输出的平均信息量。
当一个信源的输出是均匀分布的时候,熵达到最大值;当一个信源的输出是确定的时候,熵达到最小值。
通过对信源的编码,可以将信息进行压缩,从而提高信息的传输效率。
除了熵,信息论中还有一个重要的概念是信道容量。
信道容量是指在给定的传输条件下,一个信道可以传输的最大信息量。
在通信系统设计中,我们需要选择合适的调制方式和编码方式,以使得信道的传输容量最大化。
信息论还涉及到误差校正编码、数据压缩、信源编码等方面的研究。
误差校正编码是一种技术,通过在发送端对信息进行编码,并在接收端对接收到的信息进行解码,可以检测和纠正传输过程中产生的错误。
数据压缩则是通过对信息进行编码,去除冗余信息,从而减少信息的存储和传输所需的空间和带宽。
信源编码是一种特殊的数据压缩技术,它通过对信源输出进行编码,从而减少信息传输所需的位数。
信息论的理论研究与实际应用密切相关。
例如在无线通信中,研究如何提高信道利用率和减少传输功耗;在数据存储与传输中,研究如何提高数据压缩比和减小数据传输延迟等。
信息论的成果不仅在通信工程和计算机科学领域有广泛的应用,同时也为其他学科的研究提供了理论基础。
总之,信息论的研究旨在探索信息的传输和处理规律,为信息的存储、传输和处理提供有效、可靠的技术和方法。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
例如: (p22)计算只输出“0, 1”的二元熵函数的信息熵。二元熵函数的曲线图见p23. 解: 数学模型: X P (x) 则 H (X ) = −p log p − (1 − p) log(1 − p) = H (p) 而 H (p) = log 1−p p = 0 1
p 1−p
可以证明, p= 1 时, H (p)为最大值。当p = 0时, 因为 2 lim p log p = lim log p
Example 0.6 同时掷两粒色子,设各个点数出现的概率相等,用随机变量Y 表示两粒色子面上的点数之 和时,有 Y P (y ) = 2
1 36
3
2 36
4
3 36
5
4 36
6
5 36
7
6 36
Example 0.3 播音员使用单词总数为10000个。一个播音员播出1000个单词的熵为 H (X ) = log 100001000 ≈ 1.3 × 104
Example 0.4 掷一个均匀硬币直到出现“正面”为止。令X 表示所需的次数
∞
H (X ) =
n=1
1 log 2n = 2n
∞
n
n=1
1 1 2 = 1 2 = 2 2n (1 − 2 )
Example 0.5 掷一粒色子,各个点数出现的概率相等,即 X P (x) 则熵为
6
=
1
1 6
2
1 6
3
1 6
4
1 6
5
1 6
6
1 6
H ( 6
当掷出色子,得知点数为2时,这时概率分布为 X P (x ) 则熵变为 H (X ) = 0 在此过程中,试验者获得的信息量为 H (X ) − H (X ) = log 6 = 1 2 3 4 5 6 0 1 0 0 0 0
信息论展简史和现状
一、 信息论是在长期的通信工程实践和理论研究的基础上发展起来的。 信息论从诞生到今天,已有五十多年历史,现已成为一门独立的理论科学,回顾它的发展历史,我们 可以知道理论是如何从实践中经过抽象、概括、提高而逐步形成的。信息论是在长期的通信工程实践和理 论研究的基础上发展起来的。通信系统是人类社会的神经系统,即使在原始社会也存在着最简单的通信工 具和通信系统, 这方面的社会实践是悠久漫长的。电的通信系统(电信系统)已有100多年的历史了。在一百 余年的发展过程中,一个很有意义的历史事实是:当物理学中的电磁理论以及后来的电子学理论一旦有某 些进展,很快就会促进电信系统的创造发明或改进。这是因为通信系统对人类社会的发展,其关系实在是 太密切了。日常生活、 工农业生产、 科学研究以及战争等等, 一切都离不开消息传递和信息流动。 建立起电报系统(1832―1835)。 1876年, 贝尔(A. G. BELL)又发明了电话系统。 1864年麦克斯韦(Maxell)预 言了电磁波的存在, 1888年赫兹(H. Hertz)用实验证明了这一预言。 接着1895年英国的马可尼(G.Marconi)和 俄国的波波夫(A.C.ΠoΠoB)就发明了无线电通信。 本世纪初(1907年),根据电子运动的规律,福雷斯特(1,Forest)发明了能把电磁波进行放大的电子 管。之后很快出现了远距离无线电通信系统。大功率超高频电子管发明以后,电视系统就建立起来 了(1925―1927)。电子在电磁场运动过程中能量相互交换的规律被人们认识后, 就出现了微波电子管(最初 是磁控管,后来是速调管、行波管),接着,在三十年代末和四十年代初的二次世界大战初期,微波通信系 统、微波雷达系统等就迅速发展起来。五十年代后期发明了量子放大器,六十年代初发明的激光技术,使 人类进入了光纤通信的时代。 二、 随着工程技术的发展, 有关理论问题的研究也逐步深入。 1832年 莫 尔 斯 电 报 系 统 中 高 效 率 编 码 方 法 对 后 来 香 农 的 编 码 理 论 是 有 启 发 的。 1885年 凯 尔 文(L.Kelvin)曾经研究过一条电缆的极限传信率问题。1922年卡逊(J.R.Carson)对调幅信号的频谱 结构进行了研究,并建立了信号频谱概念。1924年奈奎斯特(H.Nyquist)指出,如果以一个确定的速度来 传输电报信号,就需要一定的带宽。他把信息率与带宽联系起来了。1928年哈特莱(R.V.Hartley)发展了 奈奎斯特的工作, 并提出把消息考虑为代码或单语的序列。他的工作对后来香农的思想是有影响的。 1936年阿姆斯特朗(E.H.Armstrong)认识到在传输过程中增加带宽的办法对抑制噪声干扰肯定有好 处。根据这一思想他提出了宽偏移的频率调制方法, 该方法是有划时代意义的。 信息论作为一门严密的科学分支,主要归功于贝尔实验室的香农。他在1948年发表的论文 《通信的数 学理论》 奠定了信息论的基础。控制论的创始人维纳也对信息论有不可忽视的贡献。香农和维纳的基本思 想都是把通信作为统计过程来处理。他们采用的术语、 方法也主要依靠统计理论。 信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。信息传输和信息压 缩是信息论研究中的两大领域。这两个方面又由信息传输定理、 信源-信道隔离定理相互联系。 信息论的研究范围极为广阔。一般把信息论分成三种不同类型: (1)狭义信息论是一门应用数理统计方 法来研究信息处理和信息传递的科学。它研究存在于通讯和控制系统中普遍存在着的信息传递的共同规 律,以及如何提高各信息传输系统的有效性和可靠性的一门通讯理论。(2)一般信息论主要是研究通讯问 题,但还包括噪声理论、信号滤波与预测、调制与信息处理等问题。(3)广义信息论不仅包括狭义信息论和
例如, 当法拉第(M. Faraday)于1820年–1830年期间发现电磁感应的基本规律后, 不久莫尔斯(F. B. Morse)就
一般信息论的问题, 而且还包括所有与信息有关的领域, 如心理学、 语言学、 神经心理学、 语义学等。信息 就是一种消息,它与通讯问题密切相关。1984年贝尔研究所的申农在题为 《通讯的数学理论》 的论文中系 统地提出了关于信息的论述,创立了信息论。维纳提出的关于度量信息量的数学公式开辟了信息论的广泛 应用前景。1951年美国无线电工程学会承认信息论这门学科,此后得到迅速发展。20世纪50年代是信息论 向各门学科冲击的时期,60年代信息论不是重大的创新时期,而是一个消化、理解的时期,是在已有的基 础上进行重大建设的时期。研究重点是信息和信源编码问题。到70年代,由于数字计算机的广泛应用,通 讯系统的能力也有很大提高,如何更有效地利用和处理信息,成为日益迫切的问题。人们越来越认识到信 息的重要性,认识到信息可以作为与材料和能源一样的资源而加以充分利用和共享。信息的概念和方法已 广泛渗透到各个科学领域,它迫切要求突破申农信息论的狭隘范围,以便使它能成为人类各种活动中所碰 到的信息问题的基础理论,从而推动其他许多新兴学科进一步发展。目前,人们已把早先建立的有关信息 的规律与理论广泛应用于物理学、 化学、 生物学等学科中去。一门研究信息的产生、 获取、 变换、 传输、 存 储、处理、显示、识别和利用的信息科学正在形成。信息科学是人们在对信息的认识与利用不断扩大的过 程中, 在信息论、 电子学、 计算机科学、 人工智能、 系统工程学、 自动化技术等多学科基础上发展起来的一 门边缘性新学科。 它的任务主要是研究信息的性质, 研究机器、 生物和人类关于各种信息的获取、 变换、 传 输、处理、利用和控制的一般规律,设计和研制各种信息机器和控制设备,实现操作自动化,以便尽可能 地把人脑从自然力的束缚下解放出来,提高人类认识世界和改造世界的能力。信息科学在安全问题的研究 中也有着重要应用。香农被称为是“信息论之父” 。人们通常将香农于1948年10月发表于 《贝尔系统技术学 报》 上的论文 《A Mathematical Theory of Communication》 (通信的数学理论)作为现代信息论研究的开 端。这一文章部分基于哈里・奈奎斯特和拉尔夫・哈特利先前的成果。信息论在电信方面很重要。应用非 常广泛
如果两个系统具有同样大的消息量, 如一篇用不同文字写的同一文章, 由于是所有元素消息量的加和, 那么中文文章应用的汉字就比英文文章使用的字母要少。所以汉字印刷的文章要比其他应用总体数量少的 字母印刷的文章要短。即使一个汉字占用两个字母的空间,汉字印刷的文章也要比英文字母印刷的用纸 少。 实际上每个字母和每个汉字在文章中出现的次数并不平均,因此实际数值并不如同上述,但上述计算 是一个总体概念。使用书写单元越多的文字, 每个单元所包含的讯息量越大。
N
H (p1 , p2 , . . . , pn ) = −
n=1
pn log pn
数学模型: X P (x) = a1 a2 · · · p1 p2 ··· an pn
注意: 1. log pn 实为log2 pn . 2. 比特(bit)为binary ubit缩写; loge pn 的单位为纳特; log10 pn 的单位为哈特。
1 p
p→0
p→0
= lim
1 p
p→0
− p12
= − lim p = 0
p→0
, 所以lim 0 log 0 = lim 1 log 1 = 0。
Example 0.2 电视机图象由横500线和纵600线相交点组成。每点分不同灰度,假设灰毒分为10级。整个 图象的可能状态数目为10300000 . 如果这些图象以等概率出现,则该图像信源的熵为 H (X ) = log 10300000 ≈ 106
例如: 在熵中, 我们还可以定义单个事件本身的讯息(信息本体)为: Ie = − log2 pi (对数以2为底, 单位是比特(bit)) 或者 Ie = − ln pi (对数以e为底, 单位是纳特(nats)) 如英语有26个字母, 假如每个字母在文章中出现次数平均的话, 每个字母的讯息量为: 1 26 而汉字常用的有2500个, 假如每个汉字在文章中出现次数平均的话, 每个汉字的信息量为: Ie = − log2 Ie = − log2 熵是整个系统的平均消息量, 即: