信息论
信息论的形成、发展及主要内容

信息论的形成、发展及主要内容一、引言信息论是一门研究信息传输、存储和处理的科学,其应用范围涵盖了通信、数据压缩、密码学等多个领域。
本文将介绍信息论的起源、经典信息论的发展、现代信息论的突破以及信息论在各个领域的应用。
二、信息论的起源信息论的起源可以追溯到20世纪初,当时电信和广播业开始快速发展,需要有一种度量信息的方法。
1928年,美国数学家哈特利提出用消息发生的概率来定义消息的熵,从而为信息论的发展奠定了基础。
三、经典信息论的发展1948年,美国数学家香农在《贝尔系统技术》杂志上发表了经典论文《通信的数学理论》,标志着信息论的诞生。
香农提出了信息的度量方法,即信息熵,并且给出了信息的传输速率的上限。
此外,香农还研究了信息的存储和检索问题,提出了数据压缩的理论基础。
四、现代信息论的突破随着技术的发展,现代信息论在经典信息论的基础上有了新的突破。
首先,现代信息论不仅关注信息的传输和存储问题,还关注信息的处理和理解问题。
其次,现代信息论引入了更多的数学工具和概念,如概率图模型、贝叶斯网络等,使得信息论的应用更加广泛和深入。
五、信息论在通信中的应用信息论在通信领域的应用是最为广泛的。
例如,香农的信道编码定理告诉我们,在传输过程中可以通过增加冗余信息来降低错误概率,从而提高通信的可靠性。
此外,信息论还被应用于调制解调、信号检测和同步等领域。
六、信息论在数据压缩中的应用数据压缩是信息论的一个重要应用领域。
通过去除数据中的冗余信息,数据压缩可以减小数据的存储空间和传输时间。
例如,香农提出的哈夫曼编码是一种有效的无损数据压缩算法,被广泛应用于图像、视频和音频数据的压缩。
七、信息论在密码学中的应用密码学是信息安全领域的重要分支,而信息论为其提供了理论基础。
在密码学中,信息论用于分析信息的保密性、认证性、完整性和可用性等安全属性。
例如,基于信息熵的加密算法可以用于评估加密数据的保密性程度。
此外,信息论还被应用于数字签名、身份认证等领域。
信息论重点 (新)

1.消息定义信息的通俗概念:消息就是信息,用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来,就成为消息,消息中包含信息,消息是信息的载体。
信号是表示消息的物理量,包括电信号、光信号等。
信号中携带着消息,信号是消息的载体。
信息的狭义概念(香农信息):信息是对事物运动状态或存在方式的不确定性的描述。
信息的广义概念 信息是认识主体(人、生物、机器)所感受的和表达的事物运动的状态和运动状态变化的方式。
➢ 语法信息(语法信息是指信息存在和运动的状态与方式。
) ➢ 语义信息(语义信息是指信宿接收和理解的信息的内容。
) ➢ 语用信息(语用信息是指信息内容对信宿的有用性。
)2.狭义信息论、广义信息论。
狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。
它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。
广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。
包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。
3.自信息 互信息 定义 性质及物理意义 自信息量: ()log ()i x i I x P x =-是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特;对数底为e 时,其单位为奈特;对数底为10时,其单位为哈特自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。
自信息物理意义: 1.事件发生前描述该事件发生的不确定性的大小 2.事件发生后表示该事件所含有(提供)的信息量 互信息量:互信息量的性质:1) 互信息的对称性2) 互信息可为零3) 互信息可为正值或负值4) 任何两个事件之间的互信息不可能大于其中任一事件的自信息互信息物理意义: 1.表示事件 yj 出现前后关于事件xi 的不确定性减少的量 2.事件 yj 出现以后信宿获得的关于事件 xi 的信息量4.平均自信息性质 平均互信息性质平均自信息(信息熵/信源熵/香农熵/无条件熵/熵函数/熵):(;)()(|)i j i i j I x y I x I x y =-log ()log (|)(1,2,,;1,2,,)i i jp x p x y i n j m =-+=⋯=⋯(|)log ()i j i p x y p x =1()[()][log ()]()log ()ni i i i i H X E I x E p x p x p x ===-=-∑熵函数的数学特性包括:(1)对称性 p =(p1p2…pn)各分量次序可调换 (2)确定性p 中只要有为1的分量,H(p )为0(3)非负性离散信源的熵满足非负性,而连续信源的熵可能为负。
信息论

信息论第一章概论1.信息、消息、信号的定义及关系。
定义信息:事物运动状态或存在方式的不确定性的描述。
消息:指包含有信息的语言、文字和图像等。
信号:表示消息的物理量,一般指随时间而变化的电压或电流称为电信号。
关系信息和消息信息不等于消息。
消息中包含信息,是信息的载体。
同一信息可以用不同形式的消息来载荷。
同一个消息可以含有不同的信息量。
信息和信号信号是消息的载体,消息则是信号的具体内容。
信号携带信息,但不是信息本身。
同一信息可用不同的信号来表示,同一信号也可表示不同的信息。
2. 通信系统模型,箭头上是什么?通信的目的及方法。
通信的目的:是为了提高通信的可靠性和有效性。
信源编码:提高信息传输的有效性。
(减小冗余度)信道编码:提高信息传输的可靠性。
(增大冗余度)第二章 信源及其信息量★信源发出的是消息。
信源分类1、信源按照发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源。
2、根据各维随机变量的概率分布是否随时间的推移而变化将信源分为平稳信源和非平稳信源。
单符号离散信源离散无记忆信源 无记忆扩展信源 离散平稳信源离散有记忆信源 记忆长度无限记忆长度有限(马尔可夫信源)一、单符号离散信源单符号离散信源的数学模型为定义:一个随机事件发生某一结果后所带来的信息量为自信息量。
定义为其发生概率对数的负值。
以 奇才 单位:•对数以2为底,单位为比特 (bit ) (binary unit ) •对数以e 为底,单位为奈特 (nat ) (nature unit)•对数以10为底,单位为笛特(det) (decimal unit) 或哈特 (hart) 物理含义:在事件xi 发生以前,等于事件xi 发生的不确定性的大小;在事件xi 发生以后,表示事件xi 所含有或所能提供的信息量。
性质:①I(x i )是非负值.②当p(x i )=1时,I(x i )=0. ③当p(x i )=0时,I(x i )=∞.④I(x i ) 是p(x i )的单调递减函数.联合自信息量条件自信息量自信息量、条件自信息量和联合自信息量之间有如下关系式:I(x i y j )= I(x i )+ I(y j / x i ) = I(y j )+ I(x i / y j )⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡)(,),(,),(),( ,, ,, , )( 2121n i n i x p x p x p x p x x x x X P X )(log )( i i x p x I -=)(log )( j i j i y x p y x I -=1)(,1)(01=≤≤∑=ni i i x p x p定义:各离散消息自信息量的数学期望,即信源的平均信息量.单位:比特/符号 物理含义: ① 信源熵H(X)表示信源输出后,离散消息所提供的平均信息量. ② 信源熵H(X)表示信源输出前,信源的平均不确定度. ③ 信源熵H(X)反映了变量X 的随机性.信源符号的概率分布越均匀,则平均信息量越大; 确定事件,不含有信息量。
通信的数学基石——信息论

通信的数学基石——信息论引言1948年,美国科学家香农(C. E. Shannon)发表了题为“通信的数学理论”论文,这篇划时代学术论文的问世,宣告了信息论的诞生。
文中,香农创造性地采用概率论的方法研究通信的基本问题,把通信的基本问题归结为“一方精确或近似地重现出另一方所选择的消息”,并针对这一基本问题给予了“信息”科学定量的描述,第一次提出了信息熵的概念,进而给出由信源、编码、信道、译码、信宿等组建的通信系统数学模型。
如今,信息的概念和范畴正不断地被扩大和深化,并迅速地渗透到其他相关学科领域,信息论也从狭义信息论发展到如今的广义信息论,成为涉及面极广的信息科学。
信息论将信息的传递看作一种统计现象,运用概率论与数理统计方法,给出信息压缩和信息传输两大问题的解决方法。
针对信息压缩的数学极限问题,给出了信息源编理论;针对信息传输的极限问题,则给出了信道编码理论。
《信息论基础与应用》在力求降低信息论学习对数学理论要求下,加强了信息论中基础概念的物理模型和物理意义的阐述;除此这外,该书将理论和实际相结合,增加了在基础概念的理解基础上信息论对实际通信的应用指导,并给出了相关应用的MATLAB程序实现,以最大可能消除学生对信息论学习的疑惑。
全书共分7章,第1章是绪论,第2章介绍信源与信息熵,第3章介绍信道与信道容量,第4章给出信源编码理论,第5章给出信道编码理论,在此基础上,第6章、第7章分别介绍了网络信息理论和量子信息理论。
什么是信息论什么是信息论?信息论就是回答:1)信息是如何被度量?2)如何有效地被传输?3)如果接收到的信息不正确,如何保证信息的可靠性?4)需要多少内存,可实现信息的存储。
所有问题的回答聚集在一起,形成的理论,称为信息论。
总之,信息论是研究信息的度量问题,以及信息是如何有效地、可靠地、安全地从信源传输到信宿,其中信息的度量是最重要的问题,香农首次将事件的不确定性作为信息的度量从而提出了信息熵的概念。
信息论教学大纲

信息论教学大纲一、课程概述信息论是一门应用概率论、随机过程、数理统计和近世代数等方法,来研究信息的存储、传输和处理中一般规律的学科。
它为通信、计算机科学、统计学等多个领域提供了理论基础。
本课程旨在使学生系统地掌握信息论的基本概念、基本原理和基本方法,培养学生运用信息论知识分析和解决实际问题的能力。
二、课程目标1、使学生理解信息的度量、信源和信道的数学模型。
2、掌握信息熵、互信息、信道容量等重要概念和计算方法。
3、能够运用信息论的原理分析通信系统的性能。
4、培养学生的数学推导和逻辑思维能力。
三、课程内容(一)信息的基本概念1、信息的定义和性质介绍不同领域对信息的定义和理解。
探讨信息的不确定性、可度量性等性质。
2、信息的分类按照产生的领域、作用、表现形式等进行分类。
(二)信息的度量1、自信息量定义和计算方法。
举例说明不同概率事件的自信息量。
2、联合自信息量与条件自信息量两者的概念和计算。
与自信息量的关系。
3、信息熵熵的定义和物理意义。
计算离散信源的熵。
(三)信源1、离散无记忆信源数学模型和特点。
熵的性质和计算。
2、离散有记忆信源介绍马尔可夫信源。
计算有记忆信源的熵。
3、连续信源连续信源的熵。
最大熵定理。
(四)信道1、信道的分类按照输入输出的特点分类。
举例说明不同类型信道。
2、信道的数学模型转移概率矩阵。
信道容量的概念。
(五)信道容量1、离散无记忆信道容量计算方法和步骤。
举例分析。
2、离散有记忆信道容量简要介绍计算方法。
3、连续信道容量香农公式及其应用。
(六)信息率失真函数1、失真测度常见的失真度量方法。
失真矩阵的概念。
2、信息率失真函数定义和性质。
计算方法。
(七)信源编码1、无失真信源编码定长编码定理和变长编码定理。
哈夫曼编码方法及应用。
2、有失真信源编码率失真理论。
(八)信道编码1、信道编码的基本概念差错控制的方法。
信道编码的分类。
2、线性分组码生成矩阵和校验矩阵。
纠错能力分析。
四、教学方法1、课堂讲授讲解基本概念、原理和方法,通过实例帮助学生理解。
信息论基础

信息论基础
信息论是一门研究信息传输和处理的科学。
它的基础理论主要有以下几个方面:
1. 信息的定义:在信息论中,信息被定义为能够消除不确定性的东西。
当我们获得一条消息时,我们之前关于该消息的不确定性会被消除或减少。
信息的量可以通过其发生的概率来表示,概率越小,信息量越大。
2. 熵:熵是一个表示不确定性的量。
在信息论中,熵被用来衡量一个随机变量的不确定性,即随机变量的平均信息量。
熵越大,表示随机变量的不确定性越高。
3. 信息的传输和编码:信息在传输过程中需要进行编码和解码。
编码是将消息转换为一种合适的信号形式,使其能够通过传输渠道传输。
解码则是将接收到的信号转换回原始消息。
4. 信道容量:信道容量是指一个信道能够传输的最大信息量。
它与信道的带宽、噪声水平等因素相关。
信道容量的
计算可以通过香浓定理来进行。
5. 信息压缩:信息压缩是指将信息表示为更为紧凑的形式,以减少存储或传输空间的使用。
信息压缩的目标是在保持
信息内容的同时,尽可能减少其表示所需的比特数。
信息论还有其他一些重要的概念和理论,如互信息、信道
编码定理等,这些都是信息论的基础。
信息论的研究不仅
在信息科学领域具有重要应用,还在通信、计算机科学、
统计学等领域发挥着重要作用。
信息论

信息论信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。
信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。
信息传输和信息压缩是信息论研究中的两大领域。
这两个方面又由信息传输定理、信源-信道隔离定理相互联系。
它主要是研究通讯和控制系统中普遍存在着信息传递的共同规律以及研究最佳解决信息的获限、度量、变换、储存和传递等问题的基础理论。
信息论发展的三个阶段第一阶段:1948年贝尔研究所的香农在题为《通讯的数学理论》的论文中系统地提出了关于信息的论述,创立了信息论。
第二阶段:20世纪50年代,信息论向各门学科发起冲击;60年代信息论进入一个消化、理解的时期,在已有的基础上进行重大建设的时期。
研究重点是信息和信源编码问题。
第三阶段:到70年代,由于数字计算机的广泛应用,通讯系统的能力也有很大提高,如何更有效地利用和处理信息,成为日益迫切的问题。
人们越来越认识到信息的重要性,认识到信息可以作为与材料和能源一样的资源而加以充分利用和共享。
信息的概念和方法已广泛渗透到各个科学领域,它迫切要求突破申农信息论的狭隘范围,以便使它能成为人类各种活动中所碰到的信息问题的基础理论,从而推动其他许多新兴学科进一步发展。
信息科学和技术在当代迅猛兴起有其逻辑必然和历史必然。
信息是信息科学的研究对象。
信息的概念可以在两个层次上定义:本体论意义的信息是事物运动的状态和状态变化的方式,即事物内部结构和外部联系的状态和方式。
认识论意义的信息是认识主体所感知、表达的相应事物的运动状态及其变化方式,包括状态及其变化方式的形式、含义和效用。
这里所说的“事物”泛指一切可能的研究对象,包括外部世界的物质客体,也包括主观世界的精神现象;“运动”泛指一切意义上的变化,包括思维运动和社会运动;“运动状态”指事物运动在空间所展示的性状和态势;“运动方式”是事物运动在时间上表现的过程和规律性。
信息论

信息论信息论是一门研究信息传输和处理的学科,它涉及信号的传输、存储和处理,以及信息的量化和表示等方面。
信息论的概念最早由美国数学家克劳德·香农于1948年提出,它是通信工程和计算机科学的基础理论之一。
信息论的研究对象是信息。
那么什么是信息呢?根据香农的定义,信息是一种排除干扰的度量,它代表了一个事件的不确定性的减少。
信息的传递需要通过信号来实现,信号是用来传递信息的载体。
在传输过程中,信号可能会受到各种干扰的影响,导致信息的丢失或损坏。
信息论的目标就是通过对信号和信息的处理,使得信息的传输更加可靠和高效。
在信息论中,最基本的概念之一是熵。
熵是信息的度量方式,它表示了信源输出的平均信息量。
当一个信源的输出是均匀分布的时候,熵达到最大值;当一个信源的输出是确定的时候,熵达到最小值。
通过对信源的编码,可以将信息进行压缩,从而提高信息的传输效率。
除了熵,信息论中还有一个重要的概念是信道容量。
信道容量是指在给定的传输条件下,一个信道可以传输的最大信息量。
在通信系统设计中,我们需要选择合适的调制方式和编码方式,以使得信道的传输容量最大化。
信息论还涉及到误差校正编码、数据压缩、信源编码等方面的研究。
误差校正编码是一种技术,通过在发送端对信息进行编码,并在接收端对接收到的信息进行解码,可以检测和纠正传输过程中产生的错误。
数据压缩则是通过对信息进行编码,去除冗余信息,从而减少信息的存储和传输所需的空间和带宽。
信源编码是一种特殊的数据压缩技术,它通过对信源输出进行编码,从而减少信息传输所需的位数。
信息论的理论研究与实际应用密切相关。
例如在无线通信中,研究如何提高信道利用率和减少传输功耗;在数据存储与传输中,研究如何提高数据压缩比和减小数据传输延迟等。
信息论的成果不仅在通信工程和计算机科学领域有广泛的应用,同时也为其他学科的研究提供了理论基础。
总之,信息论的研究旨在探索信息的传输和处理规律,为信息的存储、传输和处理提供有效、可靠的技术和方法。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
信息论的发展及应用
信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。
信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。
信息传输和信息压缩是信息论研究中的两大领域。
这两个方面又由信息传输定理、信源-信道隔离定理相互联系。
信息论经过六十多年的发展,现在已经成为现代信息科学的一个重要组成部分,信息论是现代通信和信息技术的理论基础。
现代信息论又是数学概率论与数理统计下年的一个分支学科。
现在信息论已经成为国内数学系信息与计算科学专业的一门必须课程。
作为信息论的奠基人克劳德·艾尔伍德·香农(Claude Elwood Shannon ),于1948 年和1949 年发表的两篇论文一起奠定了现代信息论的基础信息论的研究范围极为广阔。
一般把信息论分成三种不同类型:
(1)狭义信息论是一门应用数理统计方法来研究信息处理和信息传递的科学。
它研究存在于通讯和控制系统中普遍存在着的信息传递的共同规律,以及如何提高各信息传输系统的有效性和可靠性的一门通讯理论。
(2)一般信息论主要是研究通讯问题,但还包括噪声理论、信号滤波与预测、调制与信息处理等问题。
(3)广义信息论不仅包括狭义信息论和一般信息论的问题,而且还包括所有与信息有关的领域,如心理学、语言学、神经心理学、语义学等。
信息论发展:
1924年,Nyquist提出信息传输理论;
1928年,Hartley提出信息量关系;
1932年,Morse发明电报编码;
1946年,柯切尼柯夫提出信号检测理论;
1948年,Shannon提出信息论,他发表的论文:“A mathematical theory of communication ”同时维纳提出了最佳滤波理论,成为信息论的一个重要分支。
1959年,香农为各种信息源编码的研究奠定基础,发表论文:“Coding theorems for a discrete source with a fidelity criterion”,数据压缩理论与技术成为信息论的重要分支
六十年代,信道编码技术有较大的发展,信道编码成为信息论重要分支。
1961年,香农的重要论文“双路通信信道”开拓了多用户信息理论的研究、
七十年代,有关信息论的研究,从点对点的单用户通信推广到多用户系统的研究。
密码学成为信息论的重要分支。
详细介绍;
现代信息论其实是从上世纪二十年代奈奎斯特和哈特莱的研究开始的,他们最早开始研究了通信系统传输信息的能力,并且试图度量系统的信道容量。
香农于1940 年在普林斯顿高级研究所期间开始思考信息论与有效通信系统的问题。
经过8 年的努力,1948
年,来自贝尔研究所的Claude Shannon(克劳德·香农)的《通信的数学理论》论文公诸于世,从此宣告了崭新的一门关于信息发面的学科——信息论的诞生。
1949 年,香农又在该杂志上发表了另一著名论文《噪声下的通信》。
在这两篇论文中,香农阐明了通信的基本问题,给出了通信系统的模型,提出了信息量的数学表达式,并解决了信道容量、信源统计特性、信源编码、信道编码等一系列基本技术问题。
两篇论文成为了信息论的奠基性著作。
这两篇论文一起阐述了现代信息论的基础。
并且香农开始创造性的定义了“信息” 。
信息论自从二十世纪四十年代中叶到二十一世纪初期,现已成为一门独立的理论科学,它给出一切传输、存储、处理信息系统的一般理论,并指出,实现有效、可靠地传输和存储信息的途径是走数字化的道路。
这是通信技术领域数字化革命的数学或理论基础。
1946 年的计算机和1947 年晶体管的诞生和相应技术的发展,是这一革命的物理或物质基础。
自从香农十九世纪四十年代末两篇论文发表后,前苏联和美国的科学家采取了不同的研究途径经一部发展了信息论。
在苏联以辛锌、柯尔莫哥洛夫、宾斯基和达布鲁新为首的一批著名数学家致力于信息论的公理化体系和更一般更抽象的数学模型,对信息论的基本定理给出了更为普遍的结果,为信息论发展成数学的一个分支作出了贡献。
而在美国有一批数学修养很高的工程技术人员致力于信息有效处理和可靠传输的可实现性,维信息论转化为信息技术作出了贡献。
20世纪50年代,信息论向各门学科发起冲击;60年代信息论进入
一个消化、理解的时期,在已有的基础上进行重大建设的时期。
研究重点是信息和信源编码问题。
从此信息论迈入第二个阶段。
到70 年代,由于数字计算机的广泛应用,通讯系统的能力也有很大提高,如何更有效地利用和处理信息,成为日益迫切的问题。
人们越来越认识到信息的重要性,认识到信息可以作为与材料和能源一样的资源而加以充分利用和共享。
信息的概念和方法已广泛渗透到各个科学领域,它迫切要求突破香农信息论的狭隘范围,以便使它能成为人类各种活动中所碰到的信息问题的基础理论,从而推动其他许多新兴学科进一步发展。
虽然1948 年香农就发明了信息论,但到90 年代才找到或者再发现能够逼近香农极限的turbo 码和LDPC 码;再一个局限是香农的大部分结果都是在一定的理想条件或极限条件下推导出来的,在实际系统中,这些条件可能不能满足,因而不可能达到香农所得出的一些结论或界限。
;最后一个是局限是点对点通信的局限性,因为通信的构架存在网络结构和多用户的结构,所以对于网络和多用户的情形,香农并没有更深入的研究,虽然他在50 年代研究了two way channel,但并未得出有意义的结果,目前网络信息论或多用户信息论是一个比较活跃的领域。
信息论对现代社会产生了巨大的影响首先, 在理论研究方面, 信息论所处的地位已远远超出了当年所界定的“通信的数学理论”的范畴, 得到了不断的扩充和发展, 出现了语义信息、语法信息与语用信息等研究与信息的意义有关的学科, 以及面向智能研究的全信息理论。
第二, 在技术应用方面, 信息论为现代通信理论和技术的发
展做出了不可磨灭的贡献, 信息科学与材料科学、能源科学一起已成为现代高新技术领域的三大关键技术, 信息产业已是当今社会中发展最快、效益最高、潜力最大、影响最广的最重要的支柱产业之一。
第三, 在社会经济领域, 21 世纪人类社会将全面进入信息时代, 智力、技术和信息已成为现代社会经济生活中不可缺少的重要资源。
第四, 在思维方式方面, 信息高速公路的开通和信息的快速传递将导致思维方式上的不断更新。
互联网的开通大大加快了人们接受新思想、新信息的速度, 加快了人们思维方式的变革和更新, 促进了新的思维模式的形成, 将人们从静态思维转向动态思维, 从局域性思维转向全局性思维, 从封闭性思维转向开放性思维, 从单向性思维转向多向性思维。
有利于全方位、多层次、多渠道地展开思维活动, 促进跳跃性、联想性、创造性的思维网络的形成。
所有这些对人类的文明和社会的进步都将起到积极的促进作用。
但都是退化的情形才成立的结论,更一般的情形,还有一些其他如中继信道等,还有待进一步研究。
参考文献:叶中行,《信息论基础》高等教育出版社。