基于熵模型的多维变量熵不确定度

合集下载

基于证据熵对不确定性度量的决策表约简

基于证据熵对不确定性度量的决策表约简
b sso a i l rc s n r u h s tt e r a i f ra e p e i o o g oy.A c ri gy h u ci fb s rb bly a sg me t i d f e , a d te h oa v b i e h c od n l ,te fn t n o a i p a it sin n s eid o c o i n n h n te tt l
第 3 卷第 5期 0
国 防 科 技 大 学 学 报 JU N LO AIN LU IES YO EE S EH OO Y O R A FNTO A NV RI F F NE C N LG T D T
V 13 o520 o.0N . 08
文章编号 :01 46 2O )5 09 0 10 —28 (0 80 — 04— 5
中图分类号 :P 8 , 1 I 文献标识码 : A
De ii n Ta l d c i n Ba e n Ev d n e En r p o cso b e Re u t s d o i e c t o y f r o Un e t i t e s r s c ra n y M a u e
Ke r s vral rcs nru hst n r it aue vd n nrp ;k o l g e ut n ywo d :a b epeii g ;u c t n mesr;eie c e t y n we erd c o i o o e e a y e o d i
粗糙集理论 由 Pwa 于 18 年提出, 由 Z r 于 19 年扩展为变精度粗糙集u2, al k 92 并 ik a o 93 I 是处理不确 J 定和不精确问题的一种新型数学工具 , 是知识约简 的一个重要手段。粗糙集 的约简计算方法 , 一般分为 代数观点和信息论观点两大类D4, I 信息论观点已被证明具有更为普遍 的适用性 _。信息论观点下的 ] 4 ] 约简 , 需要计算信息熵的等价性 , 而这一般是基于 Sann hno 熵定义的。 从 不确定 度 问题 的研 究来看 , J粗糙 集对象 的决 策表 必 然具 有 一定 的不确 定 性 , 需要 适 当地 度 量 。 考虑证据理论与粗糙集均关注于对象的“ 分类”二者的关系密切 J 以借助证据理论来对粗糙集进 , , 可 行刻画; 基于 H re 熵与 Sann al ty h o 熵共 同定义的不确定性度量模型-9, n 8 J有效地表达 了系统的总体不确 I 定度 , 可以更加完整地评估决策表在约简前后的信息等价性。 本文从粗糙集与证据理论之间的密切联系人手 , 了基于变精度粗糙集的证据理论框架 , 构造 定义了

熵理论中熵及熵权计算式的不足与修正

熵理论中熵及熵权计算式的不足与修正

张近乐 , 任
杰 : 熵理论中 熵及熵权计算式的不足与修正
1 与 X 2 相近, 权重相近, 从而缓和了熵值权重 y 1, 即 X 的跳跃现象, 说明 X 越大, 对跳跃现象的修正效果
式后 , 既可解决前述特殊情况下出现的问题, 又将其 对熵权的影响控制在了合理的范围之内 ( 可使其微 变在小数点后 2 位或之后 ) 。 证明 : 传统的熵权计算式出现 / 熵值十分相近 , 熵权存在较大误差0 这种情况的原因在于 : 当 H i y 1 时, 由式 Xi = 1- Hi mi= 1
j= 1
E ac
n
, 且/ 假
三、 熵权计算公式的不足与修正
传统的熵权计算公式为 [ 2] 194 1- Hi 1- H i Xi = m = m E (1 - H i) m - E H i
i= 1 i= 1
ij
定0 : 当 acij = 0, P ij = 0 时 , P ij ln P ij = 0, 这是因为 , 当 P ij = 0 时 , ln P ij 在数学上无意义。 本文对概率计算公式给予了修正, 即: 将 P ij 重新 定义为 P ij = acij + 10
一、 引

度 , 也可以用熵值来判断某个指标的离散程度。 100 多年来 , 由于熵概念的泛化 , 经过诸多学者 的不懈钻研和应用, 熵不仅在自然科学中得到广泛 应用, 而且在社会科学和管理科学领域的研究中得 到越来越多的应用, 熵已被许多学者认为是自然科 学与社会科学的交叉点
[ 1] 42- 43
i
m
1, 0 [ Xi [ 1, ( i = 1, 2, 3, ,, m) 。
本文中 , 为了既保证对上述熵权跳跃现象的微 小修正 , 同时又不影响风险值的宏观结果以及对风 险的分 析与 比较 , 取 C = m- 1 , m = 10, 即 : X = 1 (1 - H i)。 之所以 m 取值为 10 , 是因为在实际 10 iE = 1 应用中 , 指标过多、 过少都不利或不便于对系统 ( 或 对象) 进行判断与评估( 指标较少时 , 无法准确反映 系统的判断属性, 而指标过多时 , 会使系统的判断属 性过于复杂) , 现实中通常 m = 3 ~ 10。 而取 C = m 及 m > 10, 会使计算在未改变修正精度的情况 下变得较为复杂。

熵和p值r值

熵和p值r值

熵和p值r值
熵和p值和r值是统计学中常用的两个指标。

熵(Entropy)是信息论中用来衡量不确定度或信息量的指标。

在统计学中,熵可用来量化随机变量的不确定度。

熵越高,表示信息量越大,不确定度越高。

熵的计算公式为:
H(X) = -Σ(p(x)log2 p(x))
其中,H(X)表示随机变量X的熵,p(x)表示随机变量X取特
定值x的概率。

熵的单位通常是比特(Bit)或纳特(Nat)。

p值(p-value)是统计假设检验中的一个重要指标,用于判断
观察到的数据相对于原假设模型的一致程度。

p值表示在原假
设为真的情况下,观察到与实际数据至少一样极端的结果的概率。

通常,如果p值小于设定的显著性水平(例如0.05),则拒绝原假设。

r值(r-value)通常指相关系数(correlation coefficient)或回
归系数(regression coefficient)。

相关系数用于衡量两个变量
之间的线性关系强度和方向。

它的取值范围在-1和1之间,-1
表示完全负相关,0表示无相关,1表示完全正相关。

回归系
数则用于衡量自变量对因变量的影响程度。

一般而言,r值越
接近于1或-1,表示变量之间的关系越强。

多变量转移熵计算

多变量转移熵计算

多变量转移熵计算多变量转移熵是信息论中的一个重要概念,用于度量多个随机变量之间的关联程度。

它可以帮助我们理解和分析复杂系统中的信息流动和耦合关系。

在信息论中,熵是度量不确定性或信息量的一个指标。

对于一个离散随机变量X,其熵H(X)定义为所有可能取值的概率分布的加权平均值的负对数。

而对于两个随机变量X和Y,它们之间的转移熵T(X→Y)表示在给定X的条件下,Y的不确定性或信息量。

多变量转移熵则是对于多个随机变量之间的关系进行度量。

假设我们有n个随机变量X1、X2、...、Xn,它们之间的转移熵可以表示为T(X1→X2→...→Xn)。

这个转移熵可以帮助我们揭示不同变量之间的信息流动路径和耦合关系。

多变量转移熵的计算方法相对复杂,需要对所有可能的组合进行计算。

在实际应用中,可以通过观测样本数据来估计多变量转移熵。

一种常用的估计方法是通过构建概率分布的直方图来近似计算转移熵。

另一种方法是使用基于信息熵的统计模型来估计转移熵。

多变量转移熵在许多领域中都有广泛的应用。

在生物学中,它可以用于分析基因调控网络中的基因之间的信息流动。

在金融领域中,它可以用于分析股市中不同股票之间的关联程度。

在工程领域中,它可以用于分析多个传感器之间的信息交互。

通过计算多变量转移熵,我们可以了解到不同变量之间的关系模式。

如果转移熵较大,表示变量之间的关联较强,信息流动较多;而如果转移熵较小,表示变量之间的关联较弱,信息流动较少。

这对于我们理解和预测复杂系统的行为具有重要意义。

除了多变量转移熵,还有许多其他的信息论方法可以用于分析多个随机变量之间的关系。

例如,互信息可以度量两个变量之间的关联程度;条件熵可以度量在给定其他变量的条件下,某个变量的不确定性。

这些方法相互补充,可以从不同角度揭示多个变量之间的关系。

多变量转移熵是信息论中的一个重要工具,可以用于度量多个随机变量之间的关系。

通过计算多变量转移熵,我们可以揭示复杂系统中的信息流动和耦合关系,有助于我们对系统的行为和演化进行理解和预测。

最大熵模型核心原理

最大熵模型核心原理

最大熵模型核心原理一、引言最大熵模型(Maximum Entropy Model, MEM)是一种常用的统计模型,它在自然语言处理、信息检索、图像识别等领域有广泛应用。

本文将介绍最大熵模型的核心原理。

二、信息熵信息熵(Entropy)是信息论中的一个重要概念,它可以衡量某个事件或信源的不确定度。

假设某个事件有n种可能的结果,每种结果发生的概率分别为p1,p2,...,pn,则该事件的信息熵定义为:H = -∑pi log pi其中,log表示以2为底的对数。

三、最大熵原理最大熵原理(Maximum Entropy Principle)是指在所有满足已知条件下,选择概率分布时应选择具有最大信息熵的分布。

这个原理可以理解为“保持不确定性最大”的原则。

四、最大熵模型最大熵模型是基于最大熵原理建立起来的一种分类模型。

它与逻辑回归、朴素贝叶斯等分类模型相似,但在某些情况下具有更好的性能。

五、特征函数在最大熵模型中,我们需要定义一些特征函数(Function),用来描述输入样本和输出标签之间的关系。

特征函数可以是任意的函数,只要它能够从输入样本中提取出有用的信息,并与输出标签相关联即可。

六、特征期望对于一个特征函数f(x,y),我们可以定义一个特征期望(Expected Feature),表示在所有可能的输入样本x和输出标签y的组合中,该特征函数在(x,y)处的期望值。

特别地,如果该特征函数在(x,y)处成立,则期望值为1;否则为0。

七、约束条件最大熵模型需要满足一些约束条件(Constraints),以保证模型能够准确地描述训练数据。

通常我们会选择一些简单明了的约束条件,比如每个输出标签y的概率之和等于1。

八、最大熵优化问题最大熵模型可以被看作是一个最优化问题(Optimization Problem),即在满足约束条件下,寻找具有最大信息熵的概率分布。

这个问题可以使用拉格朗日乘子法(Lagrange Multiplier Method)来求解。

熵的数学概念

熵的数学概念

熵的数学概念熵是一个用来描述系统无序程度的物理量,最初由19世纪末的奥地利物理学家鲁道夫·克劳修斯(Rudolf Clausius)提出。

这个概念最早应用于热力学中,用于描述能量的转化和传输过程中系统的无序程度。

随着时间的推移,熵的含义逐渐扩展,也被应用在其他领域,如信息理论、统计力学、天文学等。

在热力学中,熵被定义为系统的无序程度。

简单来说,熵越高,系统的无序程度越大,反之亦然。

熵可以用于描述热力学系统的宏观状态变化,以及能量在系统中的分布情况。

在一个封闭系统中,热量的传导会使得系统的熵增加,而熵的减小则需要外界对系统施加能量。

熵的公式在热力学中可以表示为:ΔS = Q / T其中,ΔS是系统熵的变化量,Q是系统吸热量,T是系统的绝对温度。

这个公式说明了系统熵的变化与系统吸热量和温度之间的关系。

当温度不变时,熵的增加与吸热量成正比;反之,当吸热量不变时,熵的增加与温度成反比。

这个公式也揭示了一般性的热力学规律,即熵增定律:封闭系统中,熵总是趋向于增加,而不会减小。

这种趋向于无序的演化过程称为熵增过程。

在信息理论中,熵是用来描述信息的不确定度的度量。

信息的不确定度可以通过信息熵来衡量,信息熵越大,信息的不确定度就越高。

举个例子,假设一个事件有两种可能性,每种可能性发生的概率相同,那么这个事件的信息熵就是1。

如果其中一种可能性的发生概率更高,那么信息熵就会减小,即不确定程度减小。

对于一个离散概率分布的信息熵的计算公式为:H(X) = -∑(p(x) * log2(p(x)))其中,H(X)表示随机变量X的信息熵,p(x)是随机变量X取值为x的概率。

这个公式说明了信息熵与随机事件发生的概率分布之间的关系。

当所有随机事件发生的概率相等时,信息熵达到最大值,即概率分布最均匀。

而当某些随机事件发生的概率较高时,信息熵会减小,即概率分布不均匀。

在统计力学中,熵是描述系统无序程度的一个重要概念。

根据统计力学,熵可以通过系统的微观状态数来计算。

极大熵法在几何量测量不确定度评定中的应用

极大熵法在几何量测量不确定度评定中的应用
Absr c : n o d rt mp o e t e e a u to r c so fte g o t c lpaa tr a u e n c ran y t a t I r e o i r v h v l ain p e iin o h e mer a r me e sme s r me tun e ti t i i e g n r to S sa d r y tm ,a ma i m n r p e fc to t o fc r e ft n sp o o e n n n w e ea in GP tn a d s se x mu e to y v ri ain me h d o u v t g i r p s d i i i i t i a e .Ac o d n o te ma i m n r p rn i l h sp p r c r ig t h xmu e to y p c p e,ma i m nr p u to t o sa p id t e - i x mu e to yf ncin meh d i p le og o merc lp r mee s ee n s p rto t n t a a a tr lme t o e ai n f t g,a d ta some h u e ft n n o t e p o l m o mo t i i i n r n fr d t e c r t g i t h r b e v i i fs oh f cin o tmiain t ac lt .Fi al un to p i z to o c l ua e n ly,tk n o nd e s a n e a l a i g r u n s s a x mp e,t e me s r d d t r ipo e h a u e aa we e d s s d b i g ma i m nr p n e s y usn x mu e to y a d l a t—s u r to q a e meh d,Th e u ti o a io n i ae h tt i t o s e r s l n c mp rs n i d c t d t a h s meh d i smp e,p a t a e , ih a c r c n c o d n t e g n r t n GP tn a d i l r ci bl h g c u a y a d a c r a twih n w e e a i S sa d r . c o

熵值法 熵权法

熵值法 熵权法

熵值法熵权法标题:信息不平衡奇观:解读熵值法和熵权法导语:信息是我们生活中不可或缺的一部分,而信息的价值可通过熵值法和熵权法得以量化。

本文将以生动形象的方式,全面解读这两种方法,并揭示它们对决策过程的指导意义。

一、熵值法:信息世界的平衡秘籍1. 信息熵:信息的不确定度信息熵是描述信息内容随机性和不确定度的度量,也是信息熵法的基础。

信息熵越高,说明系统或者变量所携带的信息越多,反之则越少。

它在评估决策中的各种风险时,能帮助我们从信息量的角度进行量化和对比。

2. 熵值方法:决策评估的捷径熵值法是一种将原始数据转化为权重的方法,基于对信息熵的计算,可以根据各项指标的不确定度分配相应的权重。

通过熵值法,我们能够精确评估每个指标对综合决策结果的影响程度,提高决策的科学性和准确性。

3. 熵值法的应用场景——科学管理的威力熵值法在风险评估、项目选择和供应商选择等领域具有广泛的应用,既可用于量化风险的大小,为决策者提供相应的参考,又可帮助管理者优化决策过程,减少不确定性。

二、熵权法:信息世界的公正仲裁者1. 熵权法:基于熵值的权重分配熵权法是一种将熵值应用于决策中的权重分配方法,它根据每个指标的信息熵值,计算其相对权重,从而实现公平准确地评估指标的重要性。

熵权法能够充分发挥每个指标的作用,避免了某些指标被过度放大或忽略的问题。

2. 熵权法的应用场景——决策效果的“呼之欲出”熵权法被广泛应用于企业决策、项目评估、人才选拔以及教育评价等领域,可提供决策者一个有力的指导,使得决策更加合理和科学,有效降低信息不对称的情况。

三、熵值法和熵权法:互为补充的决策伙伴1. 熵值法和熵权法的结合应用熵值法和熵权法可以相互补充,共同提供全面、科学的决策参考。

熵值法用于评估决策方案的不确定性程度,并给出每个指标的权重,而熵权法则根据权重分配指标的比例,最终确定综合评价结果。

两者的结合应用可以确保决策的完整性和准确性。

2. 决策的指导意义:信息平衡的黄金法则熵值法和熵权法的使用,使我们能够更全面地了解决策中不同指标的重要性和影响力,并在决策过程中避免信息的不平衡。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

基于熵模型的多维变量熵不确定度摘要:基于信息熵概念在测量精度分析中的应用特点,从理论上推出信息熵和不确定度的关系式。

试图寻找合适的模型,将已知一维随机变量的熵不确定度指标推广到二维、三维和N维的情况,得出多维变量的熵不确定度指标的统一公式,并对结果加于讨论和验证。

关键词:熵不确定度;信息熵;多维随机变量;1 熵与不确定度的关系首先我们从理论上推出信息论中的熵和误差理论中的不确定度的关系式,并着重说明二者在物理意义上的一致性。

1.1 信息论中的熵在信息论中,熵可用作某一事件不确定度的量度。

信息量越大,体系结构越规则,功能越完善,熵就越小。

利用熵的概念可以从理论上研究信息的计量、传递、变换和存储。

信息论中的熵:由信息论的创始人Shannon在著作《通信的数学理论》中提出,并建立在概率统计模型上的信息度量。

他把信息定义为“用来消除不确定性的东西”。

Shannon公式:I(A)=-log P(A)(1)公式中:I(A)为度量事件A发生所提供的信息量,称之为事件A的自信息;P(A)为事件A发生的概率。

熵定义为信息量的概率加权统计平均值:如果一个随机试验有个可能的结果,或一个随机消息有n个可能值,若它们出现的概率分别为P\-1,P\-2…,P\-n,则这些事件的自信息的平均值:H=-SUM(P\-i×log(P\-i)),i=1,2,…,n。

[JY](2)或H(x)=-∫p(x)log p(x)dx(连续型)[JY](3)式中p(x)为概率密度函数。

1.2 误差理论中的不确定度测量不确定度是与测量结果相联系的参数,是表示对测得值不能肯定的程度的分散性参数。

当此参数以标准差表征时,其不确定度为标准不确定度;当此参数以标准差σ乘以一个倍数k表征时,不确定度为扩展不确定度,这一倍数称为包含因子,也称其为置信系数。

不确定度可表示为:U=kσ[JY](4)1.3 熵与不确定度的关系由上面对信息熵和不确定度的含义分析,可以得出它们共有的一个特性:都代表随机事件的不确定性。

熵代表随机事件的平均不确定性,具有普遍性;不确定度代表测量结果(或误差)的不确定性,适用于对计量学中的数据处理。

对于常见的几种典型分布,如正态分布、均匀分布和指数分布,根据式(3)和已知的概率密度函数,可分别求出它们的熵与方差的关系,并由此推出熵与不确定度的关系。

正态分布:H(x)=-∫p(x)log p(x)dx =-∫[DD(]-∞[]∞[DD)]p(x)log[SX(]1[]P[KF(]2π[KF)]σ[SX)]e\{x2/2σ2\}dx=[SX(]1[]2[SX)]log(2πeσ2) [JY] (5)均匀分布:H=[SX(]1[]2[SX)]log(12σ2)指数分布:H=[SX(]1[]2[SX)]log(e2σ2)下面把式(4)代入,得到熵与不确定度的关系式:H=[SX(]1[]2[SX)]log(4π2σ2)=log(2U)[JY](6)由式(5)和式(6)得正态分布时的k=2.0662 多维随机变量的熵对于n维连续随机变量为X=(x\-1,x\-2,…,x\-2)T,设它的概率密度函数为p(x\-1,x\-2,…,x\-n),则它的联合熵H(X)定义为H(X)=-∫…∫p(x\-1,x\-2,…,x\-n)logp(x\-1,x\-2,…,x\-n)dx\-1,dx\-2…dx\-n则n维连续随机变量X的概率密度为:P(x)=[SX(]1[](2π)\{n/2\}|∑|\{1/2\}[SX)]•exp[JB({]-[SX(]1[]2[SX)](X-μ)T∑\{-1\}( X-μ)[JB)}][JY](7)其中:μ是n维均值向量,∑是n×n维协方差矩阵,|∑|是∑的行列式。

设:k2=(X-μ)T∑\{-1\}(X-μ)上式为一个正定二次型,正定二次型有着明显的几何意义,当n=2,即二维的正定二次型,其几何图象是一族椭圆;当n=3,其几何图象则是一族椭球面;n维时,其几何图象为n维几何空间中的一族同心超椭球面,中心为(μ\-1,μ\-2,…,μ\-n),超椭球面的主轴方向由∑阵的特征向量决定,主轴的长度与相应的协方差矩阵∑的特征值成正比。

超椭球体的大小是观测向量对于均值向量的离散度度量。

在数理统计中,称为X到μ的Mahalanobis distance(马氏距离),等密度点的轨迹是X到μ的Mahalanobis distanc为常数的超椭球面。

Mahalanobis distanc为k的超椭球体的体积为V=V\-n|∑|\{[SX(]1[]2[SX)]\}kn[JY](8)维连续随机变量在Rn空间服从等概率的均匀分布,其概率密度为:V\-n=[JB({]1/V (x-μ)T∑\{|-1\}(x-μ)≤k20 (x-μ)T∑\{-1\}(x-μ)>k2[JB)]则它的熵为:H(X)=ln V=ln(V\-n|∑|\{1/2\}kn)[JY](9)若n维连续随机变量XX在Rn空间服从正态分布,它的熵为:H(x)=ln{(2πe)\{n/2\}|∑|\{1/2\}}[JY](10)3 基于熵模型的讨论设n维随机变量X在一个有限范围内取值,根据最大熵定理:n维连续变量X在超椭球体内服从均匀分布时具有最大熵。

设最大初始熵为H(X),测量后对随机变量X的不确定度缩小为疑义度H(x/x\-n),又称剩余熵,两者之差就是香农信息I,即:I=H(x)-H(x/x\-n)=ln V\-1-ln V\-2=ln [SX(]V\-1[]V\-2[SX)]=ln n[JY](11)其中:V\-1和V\-2分别为超椭球体的体积,n表示两者的倍数。

信息论关心的是熵差(获得的信息),而不是熵本身的大小,也就是说,我们希望能够确定剩余熵所对应的不确定度半径。

对于n维随机点的位置不确定性可用熵意义下的超椭球体来度量,而要确定这个超椭球体,关键是确定熵系数k。

3.1 熵系数k的确定根据均匀分布信源,即峰值功率受限下具有最大熵的信源,如果超椭球体由正态分布的熵确定,则V=e\{H\-\{max\}(x/x\-n)\}=(2πe)\{n/2\}|∑|\{1/2\}[JY](12)设熵意义下的超椭球体的标准方程为:[SX(]v2\-1[]λ\-1[SX)]+ [SX(]v2\-2[]λ\-2[SX)]+…+[SX(]v2\-n[]λ\-n[SX)]≤k2其中λ\-1, λ\-2,…,λ\-n为协方差矩阵∑的特征值。

令:a\-i=k[KF(]λ\-i[KF)] (i=1,2,…,n)则:[SX(]v2\-1[]a2\-1[SX)]+[SX(]v2\-2[]a2\-2[SX)]+…+[SX(]v2\-n[]a2\-n[SX)]≤1其中a\-1,a\-2,…,a\-n为各主轴的信息半径,熵系数k:k=n[KF(][SX(]e\{H\-\{max\}(x)\}[]v\-n|∑|\{1/2\}[SX)][KF)]=[SX(][KF(]2πe[KF)][]n[KF(]v\-n[KF)][SX)][JY](13)3.2 n=1,2,3时随机点落入熵模型内的概率维随机点落入超椭球体内的概率:dP=P(x)V\-n|∑|\{1/2\}nk\{n-1\}dkP=[SX(]nV\-n[](2π)\{n/2\}[SX)]∫k\-0exp (-k2/2)k\{n-1\}dk[JY](14)推论:当n=1,V\-1=2时k=[KF(]2πe[KF)]/2此时超椭球体蜕变为一个区间,根据式(19),该区间的长度d为d=[KF(]2πe[KF)]σ则不确定度(△)为d/2,即:△=[KF(]2πe[KF)]σ/2=kσ-2.066σ这个结果与我们在本文1.3节中得出的结果相同,验证了n维随机变量熵不确定度公式的正确性。

当n=2时,V\-2=π,k=[KF(]2e[KF)]此时熵不确定椭球退化为熵不确定椭圆,二维随机点的熵不确定椭圆方程为:[SX(]v2\-1[]a2\-1[SX)]+[SX(]v2\-1[]a2\-1[SX)]=1当n=3时,V\-3=4π/3,k=3[KF(][SX(]3[]4π[SX)][KF)][KF(]2πe[KF)]此时熵不确定椭球退化为熵不确定椭球,三维随机点的熵不确定椭球方程为:[SX(]v2\-1[]b2\-1[SX)]+[SX(]v2\-2[]b2\-2[SX)]+[SX(]v2\-3[]b2\-3[SX)]=1根据式(14)求出一维、二维和三维时的概率列表如下:表1 n=1,2,3时随机点落入熵模型内的概率维数n[]熵模型蜕变为[]熵系数k[]概率P(%)1[]区间[]2.066[]96.12[]椭圆[]2.332[]93.43[]椭球[]2.564[]91.3由表1做图可得:图1 n=1,2,3时随机点落入熵模型内的概率由图可见,熵系数k与维数n呈正相关,概率P与维数n呈负相关。

4 结束语本文基于信息熵概念在测量精度分析中的应用特点,推出信息熵和不确定度的关系式。

引入熵不确定度模型,将已知一维随机变量的熵不确定度指标,推广到二维、三维和N维的情况,得出多维变量的熵不确定度指标的统一公式。

多维随机变量的熵不确定度,与传统的误差模型有着本质的区别,它不再是任何意义上的置信度,而是一种确定的、与置信水平无关的不确定模型。

熵不确定指标是随机点不确定性出现出现的基本范围,在其内集中了随机点的主要不确定信息,落入其外的可能性极小。

参考文献:[1] 陈丽英.略论信息论在误差理论中的应用[J].长春邮电学院学报,1999(2).[2] 李大军.多维随机变量的熵不确定度[J].计量学报,2006(3).[3] 刘智敏.不确定度及其实践[M].北京:中国标准出版社,2000.。

相关文档
最新文档