最大熵模型中的数学推导

合集下载

证明开放系的最大熵原理

证明开放系的最大熵原理

证明开放系的最大熵原理开放系的最大熵原理可以通过最大化系统的熵来进行证明。

假设有一个开放系统,可以与外界交换物质和能量。

我们想要通过最大熵原理来推导系统的平衡状态。

首先,我们需要定义开放系统的熵。

对于一个开放系统,其熵可以表示为:S = -∑(pi * ln(pi))其中,pi表示系统处于第i个可能的状态的概率。

这个表示形式是基于信息论的熵的定义,它代表了系统的不确定性。

接下来,我们引入一些约束条件。

对于一个开放系统,通常有一些由外界施加的约束条件,如能量守恒、质量守恒等。

我们可以用一组约束条件的形式表示出来:∑(ci * pi) = Ci这里,ci是一个与约束条件相关的常数,Ci是一个特定的约束条件的值。

然后,我们引入拉格朗日乘子法来解决最大化熵的问题。

我们可以定义拉格朗日函数:L = -∑(pi * ln(pi)) + ∑(λi * (∑(ci * pi) - Ci))其中,λi是拉格朗日乘子,用于处理约束条件。

接下来,我们对L求解最大值。

我们将L对pi求偏导,并令其等于零:∂L/∂pi = -1 - ln(pi) - λi * ci = 0根据上面的偏导数等于零的方程,我们可以得到:pi = e^(-1 - λi * ci)然后,我们将所有的pi相加,得到:∑pi = ∑e^(-1 - λi * ci)= e^(-1) * ∑e^(-λi * ci)由于所有的pi都是概率,所以∑pi = 1。

将这个条件应用到上面的等式中,我们得到:1 = e^(-1) * ∑e^(-λi * ci)我们可以将上述等式改写为:e = ∑e^(-λi * ci)接下来,我们考虑约束条件∑(ci * pi) = Ci。

我们将其代入到L函数中,得到: -λi * Ci + ln(∑e^(-λi * ci)) = 0整理上面的等式,我们可以得到:λi = ln(∑e^(-λi * ci)) / Ci通过上面的方程,我们可以求出λi的值。

最大熵模型简介

最大熵模型简介
P {p | Ep( f j ) E~p( f j ),1 j k}
H ( p) p(x) log2 p(x)
x
p* arg max H ( p)
最大熵模型
❖ 例如: 给定一个词
假定已知存在四种词性:名词、动词、介词、指代词 ❖ 如果该词在语料库中出现过,并且属于名词的概率为70%,则判断
Generative Model vs. Discriminative Model
❖ Generative Model (GM): P(Y|X)=P(X|Y)P(Y)/P(X),通 过求解P(X|Y)和P(Y)来求解P(Y|X)
❖ Discriminative Model (DM): 对P(Y|X)直接建模
纲要
❖ 最大熵原理 ❖ 最大熵模型定义 ❖ 最大熵模型中的一些算法 ❖ 最大熵模型的应用 ❖ 总结 ❖ 思考题
最大熵模型(Maximum Entropy
Model)

假设有一个样本集合 (x1, x2 ,... xn )
特征(j对f1, pf2的...制fk )约可以表示为
,我们给出k个特征 , Ep( f j ) E~p( f j )
p(X=3)=p(X=4)=p(X=5)=p(X=6)=0.1
最大熵原理
❖ 最大熵原理:1957 年由E.T.Jaynes 提出。 ❖ 主要思想:
在只掌握关于未知分布的部分知识时,应该选取符合这些知识但熵值最 大的概率分布。
❖ 原理的实质:
前提:已知部分知识 关于未知分布最合理的推断=符合已知知识最不确定或最随机的推断。 这是我们可以作出的唯一不偏不倚的选择,任何其它的选择都意味着我 们增加了其它的约束和假设,这些约束和假设根据我们掌握的信息无法 作出。

最大熵原理在推导分子数分布中的应用

最大熵原理在推导分子数分布中的应用
∫ S = -f(x)lnf(x)dx D
式中,f(x)为 该 物 理 量 的 概 率 密 度 分 布 函 数;D 为概率密度分布函数的定义域。
根据最大熵 原 理,只 需 求 得 使 信 息 熵 在 约 束 条 件 下 达 到 最 大 值 的 函 数 f(x),便 可 确 定 该 物 理
量 的 概 率 密 度 分 布 函 数 。 为 求 得 f(x),可 以 利 用 拉格朗日法求泛函的约束极值。
(School of Science,Xian Jiaotong University,Xian Shaanxi 710049)
Abstract This paper briefly introduces the principle of maximum entropy and deduces the number molecule distribution according to the free path and altitude.The derivation of the molecule number distribution according to the free path abandons a not solid hypothesis in Mr. Qin Yunhaos textbook,and the results are coincide with the textbook.The derivation of the molecule number distribution according to altitude takes into account the temperature change, and the results are in agreement with the data released by NASA. Key words statistic physics;molecular number distribution;free path;altitude

《机器学习Python实现_05_线性模型_最大熵模型》

《机器学习Python实现_05_线性模型_最大熵模型》

《机器学习Python 实现_05_线性模型_最⼤熵模型》import numpy as np import os os.chdir('../')import matplotlib.pyplot as plt %matplotlib inline⼀.最⼤熵原理最⼤熵的思想很朴素,即将已知事实以外的未知部分看做“等可能”的,⽽熵是描述“等可能”⼤⼩很合适的量化指标,熵的公式如下:H (p )=−∑i p i logp i这⾥分布p 的取值有i 种情况,每种情况的概率为p i ,下图绘制了⼆值随机变量的熵:p=np.linspace(0.1,0.9,90)def entropy(p):return -np.log(p)*p-np.log(1-p)*(1-p)plt.plot(p,entropy(p))[<matplotlib.lines.Line2D at 0x245a3d6d278>]当两者概率均为0.5时,熵取得最⼤值,通过最⼤化熵,可以使得分布更“等可能”;另外,熵还有优秀的性质,它是⼀个凹函数,所以最⼤化熵其实是⼀个凸问题。

对于“已知事实”,可以⽤约束条件来描述,⽐如4个值的随机变量分布,其中已知p 1+p 2=0.4,它的求解可以表述如下:maxp−4∑i =1p i logp i s .t .p 1+p 2=0.4p i ≥0,i =1,2,3,4∑i p i =1显然,最优解为:p 1=0.2,p 2=0.2,p 3=0.3,p 4=0.3⼆.最⼤熵模型最⼤熵模型是最⼤熵原理在分类问题上的应⽤,它假设分类模型是⼀个条件概率分布P (Y |X ),即对于给定的输⼊X ,以概率P (Y |X )输出Y ,这时最⼤熵模型的⽬标函数定义为条件熵:H (P )=−∑x ,y ˜P (x )P (y |x )logP (y |x )这⾥,˜P (x )表⽰边缘分布P (X )的经验分布,˜P (x )=v (X =x )N,v (X =x )表⽰训练样本中输⼊x 出现的次数,N 表⽰训练样本的总数。

高斯最大熵 证明

高斯最大熵 证明

高斯最大熵证明
高斯最大熵问题的证明可以通过以下步骤进行:
1. 定义问题:假设我们有一个连续随机变量X,其概率分布函数为p(x)。

我们希望找到一个概率分布函数p(x),使得它满足
一些约束条件,并且熵H(p)最大。

2. 熵的定义:对于一个概率分布函数p(x),其熵的表达式为
H(p) = -∫p(x)log(p(x))dx,其中积分是在整个定义域上进行的。

3. 约束条件:我们希望找到的概率分布函数p(x)需要满足一些约束条件,这些约束条件可以是概率为1,期望值等于一些给
定的值等等。

4. 构建拉格朗日函数:为了求解这个问题,我们可以构建拉格朗日函数L(p,λ) = -∫p(x)log(p(x))dx + ∑λi(gi(p) - bi),其中λi是
拉格朗日乘子,gi(p)是约束条件。

5. 最大化熵:我们希望找到一个概率分布函数p(x),使得熵
H(p) = -∫p(x)log(p(x))dx最大化。

因此,我们需要最大化拉格
朗日函数L(p,λ)。

6. 求解偏导数为零:为了找到最大化的概率分布函数p(x),我们需要求解偏导数dL(p,λ)/dp(x) = 0和dL(p,λ)/dλi = 0。

这些方
程的解将给出最大化熵的概率分布函数p(x)和拉格朗日乘子λi。

7. 高斯概率分布分析:在实际应用中,我们通常假设随机变量
X服从高斯分布,即p(x) = (1/sqrt(2πσ^2)) * exp(-(x-
μ)^2/(2σ^2)),其中μ是均值,σ是标准差。

通过解上述方程,我们可以得到满足约束条件的高斯分布概率函数,使得熵最大化。

这就是高斯最大熵问题的一个证明过程。

最大熵原理推导自由结合链末端距的径向分布函数

最大熵原理推导自由结合链末端距的径向分布函数

ρ( r) =
3 2πnl2
e 3
2
-
3 r2 2 nl2
(6)
此分布即为高斯分布 。故末端距的几率分布密度函数ρ( r) 符合高斯分布 。
又由 (1) 可得 :
f ( r) = 4πr2
3 2πnl2
e 3
2
-
3 r2 2 nl2
此式即为自由结合链末端距的径向分布函数 。
参考文献 :
[ 1 ] 何曼君 ,陈维孝 ,董西侠. 高分子物理 (修订版第一版) . 上海 :复旦大学出版社 ,1990. [ 2 ] 吴大诚. 高分子构象统计理论引导. 成都 :四川教育出版社 ,1985. [ 3 ] 马德柱 ,何平笙 ,徐仲德 ,周漪琴. 高聚物的结构与性能 (第二版 ,第八次印刷) . 北京 :科学出版社 ,2003. [ 4 ] 朱平平 ,杨海洋 ,何平笙. 高分子通报 ,2004 ,6 :91~93. [ 5 ] Greiner W ,Neise L ,St cker H. Thermodynamics and statistical mechanics. New York : Springer2Verlag Inc. ,1995. [ 6 ] 蓝风华. 武警工程学院学报 ,2000 ,16 (4) :16~17.
YANG Ke2da ,XU Shi2ai
( School of Materials Science and Engineering , East China University of Science and Technology , Shanghai 200237 , China)
Abstract : From the principle of maximum entropy ,the radial distribution function of the end2to2end distance was deduced directly ,and it is indicated that the function is Gauss2type function.

最大信息熵计算公式

最大信息熵计算公式

最大信息熵计算公式
最大熵原理是一种选择随机变量统计特性最符合客观情况的淮则,也称为最大信息原理。

信息熵这个词是香农从热力学中借用过来的。

热力学中的热熵是表示分子状态混乱程度的物理量。

香农用信息熵的概念来描述信源的不确定度。

信息熵用于解决信息的量化问题,将原本模糊的信息概念进行计算得出精确的信息熵值,信息熵是描述消息中,不确定性的值。

信息熵的计算公式为H(x) = E[I(xi)] =
E[ log(2,1/P(xi)) ] = -∑P(xi)log(2,P(xi))
(i=1,2,..n)。

最大熵模型(MaxEnt: Maximum Entropy Model,又称MEM), MaxEnt 是概率模型学习中一个淮则,其思想为:在学习概率模型时,所有可能的模型(即概率分布)中,熵最大的模型是最好的模型;
对一个随机事件的概率分布进行预测时,预测应当满足全部已知的约束,而对未知的情况不要做任何主观假设。

在这种情况下,概率分布最均匀,预测的风险最小,因此得到的概率分布的熵是最大。

若概率模型需要满足一些约束,则最大熵原理就是在满足已知约束的条件集合中选择熵最大模型。

最大熵模型算法

最大熵模型算法

最大熵模型算法今天我们来介绍一下最大熵模型系数求解的算法IIS算法。

有关于最大熵模型的原理可以看专栏里的这篇文章。

有关张乐博士的最大熵模型包的安装可以看这篇文章。

最大熵模型算法 1在满足特征约束的条件下,定义在条件概率分布P(Y|X)上的条件熵最大的模型就认为是最好的模型。

最大熵模型算法 23. IIS法求解系数wi先直接把算法粘贴出来,然后再用Python代码来解释。

这里也可以对照李航《统计学习方法》P90-91页算法6.1来看。

这个Python代码不知道是从哪儿下载到的了。

从算法的计算流程,我们明显看到,这就是一个迭代算法,首先给每个未知的系数wi赋一个初始值,然后计算对应每个系数wi的变化量delta_i,接着更新每个wi,迭代更新不断地进行下去,直到每个系数wi都不再变化为止。

下边我们一点点儿详细解释每个步骤。

获得特征函数输入的特征函数f1,f2,...,fn,也可以把它们理解为特征模板,用词性标注来说,假设有下边的特征模板x1=前词, x2=当前词, x3=后词 y=当前词的标记。

然后,用这个特征模板在训练语料上扫,显然就会出现很多个特征函数了。

比如下边的这句话,我/r 是/v 中国/ns 人/n用上边的模板扫过,就会出现下边的4个特征函数(start,我,是,r)(我,是,中国,v)(是,中国,人,ns)(中国,人,end,n)当然,在很大的训练语料上用特征模板扫过,一定会得到相同的特征函数,要去重只保留一种即可。

可以用Python代码得到特征函数def generate_events(self, line, train_flag=False):"""输入一个以空格为分隔符的已分词文本,返回生成的事件序列:param line: 以空格为分隔符的已分词文本:param train_flag: 真时为训练集生成事件序列;假时为测试集生成事件:return: 事件序列"""event_li = []# 分词word_li = line.split()# 为词语序列添加头元素和尾元素,便于后续抽取事件 if train_flag:word_li = [tuple(w.split(u'/')) for w inword_li if len(w.split(u'/')) == 2]else:word_li = [(w, u'x_pos') for w in word_li]word_li = [(u'pre1', u'pre1_pos')] + word_li + [(u'pro1', u'pro1_pos')]# 每个中心词抽取1个event,每个event由1个词性标记和多个特征项构成for i in range(1, len(word_li) - 1):# 特征函数a 中心词fea_1 = word_li[i][0]# 特征函数b 前一个词fea_2 = word_li[i - 1][0]# 特征函数d 下一个词fea_4 = word_li[i + 1][0]# 构建一个事件fields = [word_li[i][1], fea_1, fea_2, fea_4] # 将事件添加到事件序列event_li.append(fields)# 返回事件序列return event_li步进值 \delta_{i} 的求解显然delta_i由3个值构成,我们一点点儿说。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
若无特别指出,下文中所有提到的熵均为信息熵。
2.2 熵的定义
下面分别给出熵、联合熵、条件熵、相对熵、互信息的定义。 熵 :如果一个随机变量X的可能取值为X = {x1, x2,…, xk},其概率分布为P(X = xi) = pi(i = 1,2, ..., n),则随机变量X的熵定义为:
把最前面的负号放到最后,便成了:
3
其约束条件为:
该问题已知若干条件,要求若干变量的值使到目标函数(熵)最大,其数学本质是最优化问题(Optimization Problem),其约束条件是线性的等式,而目标函数是非线性
的,所以该问题属于非线性规划(线性约束)(non-linear programming with linear constraints)问题,故可通过引入Lagrange函数将原带约束的最优化问题转换为无约束的 最优化的对偶问题。
,此时仍然需要坚持无偏见原则,使得概率分布尽量平均。但
怎么样才能得到尽量无偏见的分布?
实践经验和理论计算都告诉我们,在完全无约束状态下,均匀分布等价于熵最大(有约束的情况下,不一定是概率相等的均匀分布。 比如,给定均值和方差,熵最大的分
布就变成了正态分布 )。
于是,问题便转化为了:计算X和Y的分布,使得H(Y|X)达到最大值,并且满足下述条件:
10月26日机器学习班第6次课,身为讲师之一的邹博讲最大熵模型,他从熵的概念,讲到为何要最大熵、最大熵的推导,以及求解参数的IIS方法,整个过程讲得非常流畅, 特别是其中的数学推导。晚上我把他的PPT 在微博上公开分享了出来,但对于没有上过课的朋友直接看PPT 会感到非常跳跃,因此我打算针对机器学习班的某些次课写一系列博 客,刚好也算继续博客中未完的机器学习系列。
下面再举个大多数有关最大熵模型的文章中都喜欢举的一个例子。 例如,一篇文章中出现了“学习”这个词,那这个词是主语、谓语、还是宾语呢?换言之,已知“学习”可能是动词,也可能是名词,故“学习”可以被标为主语、谓语、 宾语、定语等等。 令x1表示“学习”被标为名词, x2表示“学习”被标为动词。 令y1表示“学习”被标为主语, y2表示被标为谓语, y3表示宾语, y4表示定语。
在一定程度上,相对熵可以度量两个随机变量的“距离”,且有D(p||q) ≠D(q||p)。另外,值得一提的是,D(p||q)是必然大于等于0的。 互信息 :两个随机变量X,Y的互信息定义为X,Y的联合分布和各自独立分布乘积的相对熵,用I(X,Y)表示:
且有I(X,Y)=D(P(X,Y) || P(X)P(Y))。下面,咱们来计算下H(Y)-I(X,Y)的结果,如下:
如果没有外部能量输入,封闭系统趋向越来越混乱(熵越来越大)。比如,如果房间无人打扫,不可能越来越干净(有序化),只可能越来越乱(无序化)。而要让一个系 统变得更有序,必须有外部能量的输入。
1948年,香农Claude E. Shannon引入信息(熵),将其定义为离散随机事件的出现概率。一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。 所以说,信息熵可以被认为是系统有序化程度的一个度量。
因此,也就引出了最大熵模型的本质,它要解决的问题就是已知X,计算Y的概率,且尽可能让Y的概率最大 (实践中,X可能是某单词的上下文信息,Y是该单词翻译 成me,I,us、we的各自概率),从而根据已有信息,尽可能最准确的推测未知信息,这就是最大熵模型所要解决的问题。
相当于已知X,计算Y的最大可能的概率,转换成公式,便是要最大化下述式子H(Y|X) :
对固定的x,Lagrange函数L(x,λ,v)为关于λ和v的仿射函数。 3.4 对偶问题极大化的指数解
针对原问题,首先引入拉格朗日乘子λ0,λ1,λ2, ..., λi,定义拉格朗日函数,转换为对偶问题求其极大化:
然后求偏导,:
注:上面这里是对P(y|x)求偏导,即只把P(y|x)当做未知数,其他都是常数。因此,求偏导时,只有跟P(y0|x0)相等的那个"(x0,y0)"才会起作用,其他的(x,y)都不是关于 P(y0|x0)的系数,是常数项,而常数项一律被“偏导掉”了。
综上,本文结合邹博最大熵模型的PPT和其它相关资料写就,可以看成是课程笔记或学习心得,着重推导。有何建议或意见,欢迎随时于本文评论下指出,thanks。
1 预备知识
为了更好的理解本文,需要了解的概率必备知识有: 1. 大写字母X表示随机变量,小写字母x表示随机变量X的某个具体的取值; 2. P(X)表示随机变量X的概率分布,P(X,Y)表示随机变量X、Y的联合概率分布,P(Y|X)表示已知随机变量X的情况下随机变量Y的条件概率分布; 3. p(X = x)表示随机变量X取某个具体值的概率,简记为p(x); 4. p(X = x, Y = y) 表示联合概率,简记为p(x,y),p(Y = y|X = x)表示条件概率,简记为p(y|x),且有:p(x,y) = p(x) * p(y|x)。
通过上面的计算过程,我们发现竟然有H(Y)-I(X,Y) = H(Y|X)。故通过条件熵的定义,有:H(Y|X) = H(X,Y) - H(X),而根据互信息定义展开得到H(Y|X) = H(Y) I(X,Y),把前者跟后者结合起来,便有I(X,Y)= H(X) + H(Y) - H(X,Y),此结论被多数文献作为互信息的定义。
2
且这些概率值加起来的和必为1,即

, 则根据无偏原则,认为这个分布中取各个值的概率是相等的,故得到:
因为没有任何的先验知识,所以这种判断是合理的。如果有了一定的先验知识呢?
即进一步,若已知:“学习”被标为定语的可能性很小,只有0.05,即
,剩下的依然根据无偏原则,可得:

再进一步,当“学习”被标作名词x1的时候,它被标作谓语y2的概率为0.95,即
更多请查看《高等数学上下册》、《概率论与数理统计》等教科书,或参考本博客中的:数据挖掘中所需的概率论与数理统计知识。
2 何谓熵?
从名字上来看,熵给人一种很玄乎,不知道是啥的感觉。其实,熵的定义很简单,即用来表示随机变量的不确定性。之所以给人玄乎的感觉,大概是因为为何要取这样的名 字,以及怎么用。
熵的概念最早起源于物理学,用于度量一个热力学系统的无序程度。在信息论里面,熵是对不确定性的测量。
需要了解的有关函数求导、求极值的知识点有: 1. 如果函数y=f(x)在[a, b]上连续,且其在(a,b)上可导,如果其导数f’(x) >0,则代表函数f(x)在[a,b]上单调递增,否则单调递减;如果函数的二阶导f''(x) > 0,则函
数在[a,b]上是凹的,反之,如果二阶导f''(x) < 0,则函数在[a,b]上是凸的。 2. 设函数f(x)在x0处可导,且在x处取得极值,则函数的导数F’(x0) = 0。 3. 以二元函数z = f(x,y)为例,固定其中的y,把x看做唯一的自变量,此时,函数对x的导数称为二元函数z=f(x,y)对x的偏导数。 4. 为了把原带约束的极值问题转换为无约束的极值问题,一般引入拉格朗日乘子,建立拉格朗日函数,然后对拉格朗日函数求导,令求导结果等于0,得到极值。
例如,投掷一个骰子,如果问"每个面朝上的概率分别是多少",你会说是等概率,即各点出现的概率均为1/6。因为对这个"一无所知"的色子,什么都不确定,而假定它每 一个朝上概率均等则是最合理的做法。从投资的角度来看,这是风险最小的做法,而从信息论的角度讲,就是保留了最大的不确定性,也就是说让熵达到最大。
3.1 无偏原则
1
简单解释下上面的推导过程。整个式子共6行,其中 第二行推到第三行的依据是边缘分布p(x)等于联合分布p(x,y)的和; 第三行推到第四行的依据是把公因子logp(x)乘进去,然后把x,y写在一起; 第四行推到第五行的依据是:因为两个sigma都有p(x,y),故提取公因子p(x,y)放到外边,然后把里边的-(log p(x,y) - log p(x))写成- log (p(x,y)/p(x) ) ; 第五行推到第六行的依据是:p(x,y) = p(x) * p(y|x),故p(x,y) / p(x) = p(y|x)。 相对熵: 又称互熵,交叉熵,鉴别信息,Kullback熵,Kullback-Leible散度等。设p(x)、q(x)是X中取值的两个概率分布,则p对q的相对熵是:
2.1 熵的引入
事实上,熵的英文原文为entropy,最初由德国物理学家鲁道夫·克劳修斯提出,其表达式为:
它表示一个系系统在不受外部干扰时,其内部最稳定的状态。后来一中国学者翻译entropy时,考虑到entropy是能量Q跟温度T的商,且跟火有关,便把entropy形象的翻译 成“熵”。
我们知道,任何粒子的常态都是随机运动,也就是"无序运动",如果让粒子呈现"有序化",必须耗费能量。所以,温度(热能)可以被看作"有序化"的一种度量,而"熵"可 以看作是"无序化"的度量。
3.3 凸优化中的对偶问题
考虑到机器学习里,不少问题都在围绕着一个“最优化”打转,而最优化中凸优化最为常见,所以为了过渡自然,这里简单阐述下凸优化中的对偶问题。 一般优化问题可以表示为下述式子:
其中,subject to导出的是约束条件,f(x)表示不等式约束,h(x)表示等式约束。
然后可通过引入拉格朗日乘子λ和v,建立拉格朗日函数,如下:
且满足以下4个约束条件:
3.2 最大熵模型的表示
至此,有了目标函数跟约束条件,我们可以写出最大熵模型的一般表达式了,如下:
其中,P={p | p是X上满足条件的概率分布} 继续阐述之前,先定义下特征、样本和特征函数。 特征:(x,y) y:这个特征中需要确定的信息 x:这个特征中的上下文信息 样本:关于某个特征(x,y)的样本,特征所描述的语法现象在标准集合里的分布:(xi,yi)对,其中,yi是y的一个实例,xi是yi的上下文。 对于一个特征(x0,y0),定义特征函数:
相关文档
最新文档