信息论论文

合集下载

信息论应用论文

信息论应用论文

信息论与心理学-参考文献《徐联仓心理学文选》关于马尔科夫链的小应用在心理学中,咨询者通常会作一系列的反应,这些反应往往不是相互独立的,现在的反应常常受前面的反应的影响,同时它又影响了后面的反应。

这一系列反应的相互关系在某些情况下可以用马尔科夫过程的理论来研究。

我们可以通过这个研究对被试未来的反应作出一定的预测。

假设在一次试验中可能有n个互斥的结果A1,A2,…,An,现在我们作了一系列试验,如果对于任意的自然数s,在第s+1次试验中出现任一结果的概率都只依赖于第s次试验的结果,而与更早的试验结果无关,我们就说这一系列试验形成一个简单的马尔科夫链。

在这个情况中,我们除了要考虑在每次试验中各结果A1,A2,…,An出现的概率,而且也要考虑在上一次试验中出现Ai 之后在下一次试验中出现Ai的条件概率P(Aj |Ai),因为这个条件概率描述了这些试验间相互关系。

在这里我们只考虑一种最简单的情况,即对于任何两次相衔接的试验来说,条件概率P(Aj |Ai)都是一样的,这就是均匀的马尔科夫链的情况。

在考虑马尔科夫链的时候,我们通常把试验结果A1,A2,…,An称为状态,而把两次试验间的诸条件概率称为这些状态间的转移概率。

由于在上一次试验中出现状态Ai后在下一次试验中必然而且只可能出现状态A1,A2,…,An中的一个,因此如果我们以B1代表“上一次试验是状态Ai而在下一个试验转移到状态A1”这一事件,以B2代表状态 Ai转移到状态A2,如此类推。

于是,B1,B2,…,Bn形成了一个两两互斥的完备事件群,因此可知P(B1)+P(B2)+…+P(Bn)=1下面是一个简单的预测例子。

设有一人在三叉路口,目的在于考察两种不同的反应的效果。

当人跑向A口时,所得的反应为X;当它跑到B口时,所得的反应是Y。

试验者作了如下的记录:试验次数:1,2,3,4,5,6,7,8,9,10,11,12,13,14,…试验结果:B,B,A,A,A,A,B,B,A,A,A,B,B,B,…A和B的次数同样多,而转移概率为P(A|A)=0.8P(B|A)=0.2P(A|B)=0.4P(B|B)=0.6由于这一阶段A与B出现的次数同样多,我们可以假定它们的初始概率分别为0.5。

信息论与编码论文

信息论与编码论文

论最大熵原理及其应用摘要:熵是源于物理学的基本概念,后来Shannon在信息论中引入了信息熵的概念,它在统计物理中的成功使人们对熵的理论和应用有了广泛和高度的重视。

最大熵原理是一种在实际问题中已得到广泛应用的信息论方法。

本文从信息熵的概念出发,对最大熵原理做了简要介绍,并论述了最大熵原理的合理性,最后提及它在一些领域的应用,通过在具体例子当中应用最大熵原理,展示该原理的适用场合,以期对最大熵原理及其应用有更深刻的理解。

关键词:熵;信息熵;最大熵原理;不适定性问题1 引言科学技术的发展使人类跨入了高度发展的信息化时代。

在政治、军事、经济等各个领域,信息的重要性不言而喻,有关信息理论的研究正越来越受到重视,信息论方法也逐渐被广泛应用于各个领域。

信息论一般指的是香农信息论,主要研究在信息可以度量的前提下如何有效地、可靠地、安全地传递信息,涉及消息的信息量、消息的传输以及编码问题。

1948年C.E.Shannon为解决通信工程中不确定信息的编码和传输问题创立信息论,提出信息的统计定义和信息熵、互信息概念,解决了信息的不确定性度量问题,并在此基础上对信息论的一系列理论和方法进行了严格的推导和证明,使以信息论为基础的通信工程获得了巨大的发展。

信息论从它诞生的那时起就吸引了众多领域学者的注意,他们竞相应用信息论的概念和方法去理解和解决本领域中的问题。

近年来,以不确定性信息为研究对象的信息论理论和方法在众多领域得到了广泛应用,并取得了许多重要的研究成果。

迄今为止,较为成熟的研究成果有:E.T.Jaynes 在1957年提出的最大熵原理的理论;S.K.Kullback 在1959年首次提出后又为J.S.Shore 等人在1980年后发展了的鉴别信息及最小鉴别信息原理的理论;A.N.Kolmogorov 在1956年提出的关于信息量度定义的三种方法——概率法,组合法,计算法;A.N.Kolmogorov 在1968年阐明并为J.Chaitin 在1987年系统发展了的关于算法信息的理论。

信息论课堂论文

信息论课堂论文

数据压缩可分成两种类型,一种叫做无损压缩,另一种叫做有损压缩。无损 压缩是指使用压缩后的数据进行重构(或者叫做还原,解压缩),重构后的数据与 原来的数据完全相同; 无损压缩用于要求重构的信号与原始信号完全一致的场合。 一个很常见的例子是磁盘文件的压缩。根据目前的技术水平,无损压缩算法一般 可以把普通文件的数据压缩到原来的 1/2~1/4。 一些常用的无损压缩算法有霍夫 曼(Huffman)算法和 LZW(Lenpel-Ziv & Welch)压缩算法。有损压缩是指使用压缩后 的数据进行重构, 重构后的数据与原来的数据有所不同,但不影响人对原始资料 表达的信息造成误解。
互信息(Mutual Information)是另一有用的信息度量,它是指两个事件集合之 间的相关性。两个事件 X 和 Y 的互信息定义为:
I ( X , Y ) H ( X ) H (Y ) H ( X , Y )
(2)
其中 H(X,Y) 是联合熵(Joint Entropy),其定义为:
信息论调研报告
摘要: 随着计算机技术、 通信技术和网络技术等信息技术的快速发展,信息技术 已经成为当今社会应用范围最广的高新技术之一。 信息论是信息技术的主要理论 技术基础之一,它的一些基本理论在通信、计算机、网络等工程领域中得到了广 泛的应用。目前,信息论所研究的范畴已经超过了通信及其相近学科,在其他学 科应用也很广泛。本文主要从信息论的概念、发展以及相关应用方面着手,简要 的讲述信息论的在信息技术发展中的重要性以及一些比较重要的应用。 关键词:信息论、数据压缩、信号处理、标签算法
H ( X , Y ) p( x, y) log p( x, y)
互信息与多元对数似然比检验以及皮尔森χ2 校验有着密切的联系。

信息论方法预测信号肽-论文

信息论方法预测信号肽-论文

第二章几种公认的预测方法2.1,3准确性权重矩阵方法对于蛋白质信号肽剪切位点是成功的,至今仍然是众多科研人员对新方法时候成功的进行检验的一个标准,在Dr.vonHeijin.G1986年的这篇文章中,该方法对于自建数据库中的已知剪切位点蛋白质的检验准确性可以达到:真核生物61%、革兰氏阳性菌81%和革兰氏阴性菌69%;对于位置剪切位点的蛋白质的预测准确性可以达到75%.80%。

2-2序列编码方法伍川Ⅱence_encodedalgorithm)1912.2.1方法信号肽的长度对于不同蛋白质有所不同,最短的线号肽可能是8个氨基酸(t=8),最长的可能是90个氨基酸(厶=90),大部分的信号肽长度分布在18—25个氨基酸之间。

假定一个信号肽和他的剪切位点可以被一个虚拟的、标示为【一厶,+厶】的序列来说明,其中厶是信号部分的氨基酸残基数目,厶是蛋白质成熟部分的数目,信号台的剪切位点必定存在于这段被称为“基准窗口”的序列片断中标定位一1和+l的两个残基之间。

首先【9]作者选定厶=6、上2=2,那么【9】作者有一个基准窗口【一6,+21(这个算法可以很容易的推广到其他的厶、岛值)。

一个卜6,+2】序列片断可以表示成为:足6噩5足4足3足2足l段l心这里的R代表新生蛋白质序列i位置的氨基酸残基。

在(一1,+1)之间的位置时分泌过程中的剪切位点,在此之前的位置上的残基组成了信号部分。

图2-1:信号肽及其剪切位点示意图第五章结果与讨论5.1信号肽特征不同物种的信号肽,在其长度上时有区别的。

对于真核生物来说,信号肽的平均长度是23.4(氨基酸个数);革兰式阴性菌是25.9,而革兰式阳性菌则相对更长,其平均长度达到了32.7。

各个物种信号肽长度的具体分布见图5.1。

lengthofsignal口ep啦de圈5-l:信号肽长度分布对于信号肽来说,剪切位点附近的氨基酸服从下面的(一3,一1)规则【lO】:一l位置的残基必须是小氨基酸,比如,Ala,Ser,Gly,Cys,Thr或是Gin,一3位鼍的残基一定不是芳香族氨基酸(Phe,His,Tyr,Trp),带电荷的氨基酸(Asp,Olu,Lys,Arg),或是大且极性的氨基酸(Arm,Gin)。

信息论论文

信息论论文

信息科学技术概论课程报告姓名: 葛坤专业: 11级电子信息工程A班学号: 1115102016日期2013年3月1日—2013年4月26日一、研究内容信息科学信息科学是以信息为主要研究对象,以信息的运动规律和应用方法为主要研究内容,以计算机等技术为主要研究工具,以扩展人类的信息功能为主要目标的一门新兴的综合性学科。

信息科学由信息论、控制论、计算机科学、仿生学、系统工程与人工智能等学科互相渗透、互相结合而形成的。

信息科学技术主要研究信息的产生、获取、存储、传输、处理及其应用。

其中以微电子、计算机、软件、通信讯技术为主导,微电子是基础,计算机及通信设施是载体,而软件是核心,是计算机的灵魂。

信息,既是信息科学的出发点,也是它的归宿。

具体来说,信息科学的出发点是认识信息的本质和它的运动规律;它的归宿则是利用信息来达到某种具体的目的。

信息概念信息是人类对自然世界的了解的物化形式,信息的概念可以在两个层次上定义:1、本体论意义的信息是事物运动的状态和状态变化的方式,即事物内部结构和外部联系的状态和方式。

2、认识论意义的信息是认识主体所感知、表达的相应事物的运动状态及其变化方式,包括状态及其变化方式的形式、含义和效用。

信息并非事物本身,而是表征事物之间联系的消息、情报、指令、数据或信号。

信息的主要特征有:可量度、可识别、可转换、可存储、可处理传递、可再生、可压缩、可利用、可共享、主客体二重性等。

信息的产生、存在和流通,依赖于物质和能量,没有物质和能量就没有能动作用。

信息可以控制和支配物质与能量的流动。

数据、信息、知识和智慧数据是未加工过的“信息”;信息通过将事实和给定的语境关联而导出;知识将某语境中的信息和在不同语境中得到的信息相关联;智慧是从完全不同的知识导出的一般性原理。

信息论概念信息论是研究信息的产生、获取、变换、传输、存贮、处理识别及利用的学科。

信息论还研究信道的容量、消息的编码与调制的问题以及噪声与滤波的理论等方面的内容。

信息技术论文范文

信息技术论文范文

信息技术改变着我们的生活论文2000字类惊速度走工业文明步入信息代信息代临仅改变着产式式且改变着思维式习式二十世纪我毫犹豫说:信息技术改变着我信息技术社发展着深刻影响仅提高社产力发展速度且社总体结构式全位影响引发史前例革命使我视野变更加阔沟通更加便捷类进入知识经济信息化社步伐加快随着现代社发展信息、知识已经社基本资源信息产业社核产业信息素养已每公民必须具备基本素质信息技术逐步渗透社面面信息选取、析、加工、利用能力与传统听、说、读、写、算等面知识技能同重要些能力信息社新型才培养基本要求何快获取信息效析信息何利用信息形决策现代管理核商业及获信息效利用信息更企业存事信息技术改变我各面同使我教育教发翻覆变化于工作校园教师习、校园同说我亲身经历、亲自创造着信息技术引起教育模式变化信息代知识爆炸科技新月异才需求提更高要求般应用型才书架型才、工匠型才已难适应代发展习型、创造型才培养今教育工作核充利用信息技术应该说培养新型才第步信息技术普及发展能帮助我较代价获较收获用较少间精力获较教育习效获取专业知识同掌握定信息知识、信息能力具备定信息意识、信息观念能够灵应用信息处理工作习、现问题我教育重要面同信息技术发展教育产深刻影响给教育注入新机力同给教育提更高要求于转变陈旧教育思想观念促进教内容、教、教结构教模式改革加快建设教育手段管理手段现代化起决定性作用尤其于深化基础教育改革提高教育质量效益培养面向现代化面向世界面向未创新才更具深远意义由难看:展信息化教育培养信息意识信息能力提高信息技术应用水平已前高等教育应该着重加强面信息技术800字论文我是一名幸运儿,生活在高科技发展迅速的二十一世纪。

我漫步在平坦的柏油马路上,穿梭于鳞次栉比的摩天高楼之间,身边一辆辆轿车飞驰而过,令我眼花缭乱。

信息技术为我们的生活带来了方便,我喜欢信息技术,更喜欢它走进了我家。

在众多的信息技术中,电脑显然是芸芸众生中的佼佼者,倍受人们的青睐,走进了千家万户。

MATLAB的应用——信息论论文

MATLAB的应用——信息论论文

青岛农业大学信息与编码理论实验报告姓名:韩祖良班级:信计1201学号:20125991指导老师:辛永训2015年6月信息与编码理论实验课:实验一实验题目Shannon码的编码实验目的掌握MATLAB基本操作;Shannon码的编码实验地点及时间信息楼214机房,周一上午1-2节;周三上午3-4节实验内容1. MATLAB简介及常用功能;2.离散信源的MATLAB分析;3.离散信道的MATLAB分析;4.Shannon码的编码原理及软件实现。

实验习题1.你对MATLAB软件的了解;答:我参加过数学建模国赛和美赛,获得过省级二等奖和美赛成功参与奖,更期待今年10月份的国赛可以有所突破。

我对MATLAB比较熟悉,在建模过程中经常用的是其强大的计算和编程绘图功能。

其操作简单,不像c语言等需要抽象的编程语言,使用的大多直接是数学中的符号,而且快捷键很方便,比如输入“clc”命令就可以清屏、输入“plot(x,y)命令”就可以绘制二维图像。

编程制图方面,可以直接打开代码本,不用将代码敲入主界面,建模过程中印象比较深刻的是去年国赛A题嫦娥二号着陆点的月球剖面图就可以用MATLAB绘制,其在代码中是一个1000*1000的矩阵,而矩阵数字的突变代表了月球剖面图的高低。

同样,B题设计折叠椅的动图模型也是用MATLAB做出来的。

下面较为详细的介绍一下MATLAB,MATLAB是美国MathWorks公司出品的商业数学软件,用于算法开发、数据可视化、数据分析以及数值计算的高级技术计算语言和交互式环境,主要包括MATLAB和Simulink两大部分。

它将数值分析、矩阵计算、科学数据可视化以及非线性动态系统的建模和仿真等诸多强大功能集成在一个易于使用的视窗环境中,代表了当今国际科学计算软件的先进水平。

MATLAB和Mathematica、Maple并称为三大数学软件。

它在数学类科技应用软件中在数值计算方面首屈一指。

MATLAB可以进行矩阵运算、绘制函数和数据、实现算法、创建用户界面、连matlab开发工作界面接其他编程语言的程序等,主要应用于工程计算、控制设计、信号处理与通讯、图像处理、信号检测、金融建模设计与分析等领域。

信息论论文

信息论论文

信息论论文Document serial number【UU89WT-UU98YT-UU8CB-UUUT-UUT108】湖南科技大学课程结课论文《信息论与编码A》学院:信息与电气工程学院专业:班级:学号:姓名:信息论基础摘要:从对信息论的一些基础知识汇总,信息的定义,信息论的发展;还有信源与信息熵,信道与信道容量,编码这些关键知识点做一个系统性的回顾,再结合通信领域的知识进行分析。

关键字:信息论;引言:信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。

信息系统就是广义的通信系统,泛指某种信息从一处传送到另一处所需的全部设备所构成的系统。

名称由来:信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。

信息传输和信息压缩是信息论研究中的两大领域。

这两个方面又由信息传输定理、信源-信道隔离定理相互联系。

发展简史:信息论是20世纪40年代后期从长期通讯实践中总结出来的一门学科,是专门研究信息的有效处理和可靠传输的一般规律的科学。

切略(E.C.Cherry)曾写过一篇早期信息理论史,他从石刻象形文字起,经过中世纪启蒙语言学,直到16世纪吉尔伯特(E.N.Gilbert)等人在电报学方面的工作。

20世纪20年代奈奎斯特(H.Nyquist)和哈特莱(L.V.R.Hartley)最早研究了通信系统传输信息的能力,并试图度量系统的信道容量。

现代信息论开始出现。

1948年克劳德·香农(Claude Shannon)发表的论文“通信的数学理论”是世界上首次将通讯过程建立了数学模型的论文,这篇论文和1949年发表的另一篇论文一起奠定了现代信息论的基础。

由于现代通讯技术飞速发展和其他学科的交叉渗透,信息论的研究已经从香农当年仅限于通信系统的数学理论的狭义范围扩展开来,而成为现在称之为信息科学的庞大体系。

信息的性质:信息有以下性质:客观性、广泛性、完整性、专一性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

论最大熵原理及其应用摘要:熵是源于物理学的基本概念,后来Shannon在信息论中引入了信息熵的概念,它在统计物理中的成功使人们对熵的理论和应用有了广泛和高度的重视。

最大熵原理是一种在实际问题中已得到广泛应用的信息论方法。

本文从信息熵的概念出发,对最大熵原理做了简要介绍,并论述了最大熵原理的合理性,最后提及它在一些领域的应用,通过在具体例子当中应用最大熵原理,展示该原理的适用场合,以期对最大熵原理及其应用有更深刻的理解。

关键词:熵;信息熵;最大熵原理;不适定性问题1 引言科学技术的发展使人类跨入了高度发展的信息化时代。

在政治、军事、经济等各个领域,信息的重要性不言而喻,有关信息理论的研究正越来越受到重视,信息论方法也逐渐被广泛应用于各个领域。

信息论一般指的是香农信息论,主要研究在信息可以度量的前提下如何有效地、可靠地、安全地传递信息,涉及消息的信息量、消息的传输以及编码问题。

1948年C.E.Shannon为解决通信工程中不确定信息的编码和传输问题创立信息论,提出信息的统计定义和信息熵、互信息概念,解决了信息的不确定性度量问题,并在此基础上对信息论的一系列理论和方法进行了严格的推导和证明,使以信息论为基础的通信工程获得了巨大的发展。

信息论从它诞生的那时起就吸引了众多领域学者的注意,他们竞相应用信息论的概念和方法去理解和解决本领域中的问题。

近年来,以不确定性信息为研究对象的信息论理论和方法在众多领域得到了广泛应用,并取得了许多重要的研究成果。

迄今为止,较为成熟的研究成果有:E.T.Jaynes 在1957年提出的最大熵原理的理论;S.K.Kullback在1959年首次提出后又为J.S.Shore等人在1980年后发展了的鉴别信息及最小鉴别信息原理的理论;A.N.Kolmogorov在1956年提出的关于信息量度定义的三种方法——概率法,组合法,计算法;A.N.Kolmogorov在1968年阐明并为J.Chaitin在1987年系统发展了的关于算法信息的理论。

这些成果大大丰富了信息理论的概念、方法和应用范围。

在信息论中,最大熵的含义是最大的不确定性,它解决的一大类问题是在先验知识不充分的条件下进行决策或推断等。

熵方法在谱估计、图象滤波、图象重建、天文信号处理、专家系统等中都有广泛的应用。

最大熵原理在实际问题中的应用近年来一直在不断地发展。

2信息熵的概念信息熵是将熵概念成功地扩展到信息科学领域。

熵是描述客观事物无序性的参数,它最早是由R.Clausius于1865年引入热力学中的一个物理概念,通常称之为热力学熵。

后来L.Boltzmann赋予熵统计意义上的解释,称之为统计热力学熵。

1929年,匈牙利科学家Lszilard 首先提出了熵与信息不确定性的关系,使信息科学引用熵的概念成为可能。

1948年,贝尔实验室的C.Shannon创立了信息论,熵的概念有了新的解释,香农认为信息是人们对事物了解的不确定性的消除或减少,他把通讯过程中信源讯号的平均信息量称为信息熵,现在一般称之为香农熵,实现了信息熵的实际应用,从此对信息熵的研究,随着信息科学的发展而得到不断的发展。

香农将随机变量X 的信息熵定义为:=)(X H -n Nn n p p log 1∑=式中,n p 为=X n x 的概率分布,n=1,2,…,N ;当对数底数取2时,信息熵的单位为bit/sign ;取自然对数时,单位为nat/sign ;取常用对数时,单位为hart/sign 。

它代表了信源输出后每个消息所提供的平均信息量,或信源输出前的平均不确定度。

信息熵的定义使随机变量的不确定性得到了量度,使信息论得到了空前的发展。

而且,信息熵具有的凸函数性质使得它特别适合作为优化问题中的目标函数,这同时也为信息论概念和方法在除通信领域以外的其他领域内的应用提供了理论基础,拓宽了信息论的应用范围。

3 最大熵原理香农提出的信息熵的概念很好地解决了随机事件的不确定性程度的度量问题,但没有解决随机事件的概率是如何进行分配的问题。

设想有一个可观测的概率过程,其中的随机变量x 取离散值1x ,2x ,…,n x ,如果从观测的结果知道了这个随机变量的均值、方差等特征值,怎样才能确定它取各离散值的概率1P ,2P ,…,n P 呢?一般地,满足可观测值的概率分配,可以有无限多组。

那么究竟应当选哪一组呢?即在什么意义下,所选出的一组概率才是最可能接近实际的呢?在项目决策实际中,有些随机事件不能直接计算其概率,也无法知道其频率,通常只能取得与该随机事件(或随机变量)有关的一个或几个平均值,从理论上讲,对于给定的随机变量,如何获取最为合适的一个分布呢?1957年,E.T.Jaynes 在“信息论与统计力学”一文中,提出一个选择准则:“当根据部分信息进行推理时,必须选择这样一组概率分配,它应具有最大的熵,并服从一切已知的信息。

这是我们能够做出的唯一的无偏分配;使用任何其它分配,就等于对原来没有信息做了随意假定”。

换言之,在只掌握部分信息的情况下要对分布做出推断时,符合已知信息的概率分布可能不止一个,而我们应该选取符合约束条件但熵值取最大的概率分布,这是我们可以做出的唯一的不偏不倚的选择,任何其他的选择都意味着我们添加了其他的约束或假设,这些约束或假设根据我们所掌握的信息是无法做出的。

E.T.Jaynes 建立的这一统计推理准则,被称为最大熵原理,或者极大熵准则。

它为我们如何从满足约束条件的诸多相容分布中,挑选“最佳”、“最合理”的分布提供了一个选择标准。

尽管这个准则在性质上也有主观的一面,但却是一个最“客观”的主观准则。

因为,我们知道,熵定义的实际上是一个随机变量的不确定性,熵最大的时候,说明随机变量最不确定,换句话说,也就是随机变量最随机,对其行为做准确预测最困难。

熵值最大意味着添加的约束和假设最少,这时求出的分布是最自然、偏差最小的。

4 最大熵原理的合理性最大熵方法对于构造概率密度函数来说,是一种有价值的方法。

按照极大熵准则,人们应该挑选在一定约束下(常常是某些与随机变量有关的平均值)使得熵(或条件熵)能极大化的那种分布作为选定的分布。

使用这个准则,先验信息(已知数据)将构成求极值的问题的约束条件。

由最大熵准则得到的概率分布称为最大熵分布。

应用最大熵准则构造先验概率分布有如下优点:首先,最大熵的解是最超然的,即在数据不充分的情况下求解,解必须和己知的数据相吻合,而又必须对未知的部分做出最少的假定;其次,根据熵集中原理,绝大部分可能状态都集中在最大熵状态附近,因此,用最大熵法所做出的预测是相当准确的;第三,用最大熵法求得的解满足一致性要求—不确定性的测度(熵)与试验步骤无关。

最大熵方法的这一宝贵性质来源于推导熵函数的合成法则。

用最大熵准则设立先验分布的理论根据由S.A. Smith从数学上进行了证明,其思路是把随机性决策问题作为对策问题看待,即自然界选择一状态的分布使期望损失极大,而决策人选择一决策使此期望损失为极小,推导出在损失函数的集为适合特定条件的理想集的情况,这个极小化极大解的确能导致一概率分布适合最大熵准则。

对最大熵原理提出的疑问主要有以下两个:(1)关于最大熵原理所得解的客观性引起这一疑问的原因要追溯到香农对熵的定义和解释。

在那里,香农是从通信的角度提出和讨论熵和信息的,因此计算熵和信息时所用的概率分布带有一定的主观性。

而最大熵原理是用于对客观物理系统的某种实际分布的估计,那么这样得到的估计是否也带有主观性呢?仔细分析最大熵原理所针对的问题,就可以知道在这一问题中,熵的确代表了人们对客观物理系统中某种物理量概率分布的无知程度,它带有主观性。

然而,在最大熵原理下所给出的解却完全是一个客观的量,因为这一解只与一组数学期望值有关,而这组数学期望值是可以客观测量得到的,所以最大熵原理给出的解完全是一个客观量,没有主观的因素。

(2)如何理解被最大熵原理排除的其他满足约束条件的解最大熵原理所给出的解是唯一的,而不适定问题原来的解不唯一,因此我们如何来理解适合约束条件的其他解,它们在实际情况下会不会是真正的解呢?有关研究结果已经证明,从概率的观点来看,熵值远离最大熵的可能解出现的机会非常小,或者从组合的观点来看,熵值远离最大熵的组合种类在所有可能的组合中所占的比例很小。

因此,最大熵解是在给定信息下可能做出的最可靠的解,它在绝大多数情况下会接近于真实解,因而最大熵原理是一种保险的策略。

5最大熵原理在实际中的应用在数学、物理、工程技术及其它领域中,常常要根据测量的数据,所给的条件或所作的假设求解。

对于求解,通常关心三个问题:存在性、唯一性和稳定性。

如果这三个要求中至少有一个不满足,则认为是“不适定性问题”,对于此类问题,最大熵原理是有效方法之一。

譬如,地球物理学中利用地震勘探法确定地层构造,射电天文学中利用无线电干涉仪获取星空图像,计算机层析术中利用扫描投影数据构造断层图像,语音识别和语音编码中根据语音信号估计声道参数,图像处理中对散焦或目标位移造成的蜕化图像进行复原,雷达及声纳中根据接收信号进行功率谱估计,数字通信中对信道畸变带来的符号间串扰进行盲目均衡等不适定性问题的解决通常采用基于最大熵原理的最大熵估计法。

“不适定问题”是求解时由于数据不完全或有噪声,或两者兼有,使掌握的数据不足以推求该问题的确定解,其中包括所测得的数据求解时所给定的条件或假设。

在“不适定问题”的所有的可行(可能)解中,应选其中熵值最大的一个解。

因为熵最大意味着对由于数据不足而作的人为假定(人为添加信息)最小,从而所获得的解是最合乎自然、最为超然、偏差最小的。

统计物理中一些有名的分布已被证明都是在若干类似上述的约束条件下使熵或微分熵最大的分布。

例如,统计力学中气体分子速度的分布是能量受约束下的最大熵分布,大气层空气密度随高度的分布是在平均势能受约束下的最大熵分布等。

从熵作为不确定程度的度量来看,此时的解包含的主观成分最少,因而是最客观的。

自1957年Jaynes提出这一原理以来,这一原理先后在统计力学、统计学、运输工程、排队论、计算机系统建模、系统仿真、生产决策、股市分析等领域得到应用,特别是在信号处理领域,最大熵原理成为谱估计或图像复原中的主要方法。

5.1最大熵原理在水文水资源科学中的应用水文水资源科学从本质上看,是一门有关水信息(采集、传输、整理、分析、研究)的学科。

现有的大量研究成果表明:最大熵原理在水系统频率分析、水文时间序列谱分析、水文水质观测站网的布设评估、水模型的研建评价、水文预报与预测、水力学、河流地貌学、水利风险分析及水环境工程等方面具有广泛的应用。

在水系统中应用最大熵原理最多的是水文频率分析研究,推导水文随机变量的概率分布和参数估计两个方面[7]。

相关文档
最新文档