第57讲 最大似然估计法 (1)

合集下载

最大似然估计详解

最大似然估计详解

最⼤似然估计详解⼀、引⼊ 极⼤似然估计,我们也把它叫做最⼤似然估计(Maximum Likelihood Estimation),英⽂简称MLE。

它是机器学习中常⽤的⼀种参数估计⽅法。

它提供了⼀种给定观测数据来评估模型参数的⽅法。

也就是模型已知,参数未定。

在我们正式讲解极⼤似然估计之前,我们先简单回顾以下两个概念:概率密度函数(Probability Density function),英⽂简称pdf似然函数(Likelyhood function)1.1 概率密度函数 连续型随机变量的概率密度函数(pdf)是⼀个描述随机变量在某个确定的取值点附近的可能性的函数(也就是某个随机变量值的概率值,注意这是某个具体随机变量值的概率,不是⼀个区间的概率)。

给个最简单的概率密度函数的例⼦,均匀分布密度函数。

对于⼀个取值在区间[a,b]上的均匀分布函数\(I_{[a,b]}\),它的概率密度函数为:\[f_{I_{[a,b]}}(x) = \frac{1}{b-a}I_{[a,b]} \]其图像为:其中横轴为随机变量的取值,纵轴为概率密度函数的值。

也就是说,当\(x\)不在区间\([a,b]\)上的时候,函数值为0,在区间\([a,b]\)上的时候,函数值等于\(\frac{1}{b-a}\),函数值即当随机变量\(X=a\)的概率值。

这个函数虽然不是完全连续的函数,但是它可以积分。

⽽随机变量的取值落在某个区域内的概率为概率密度函数在这个区域上的积分。

Tips:当概率密度函数存在的时候,累计分布函数是概率密度函数的积分。

对于离散型随机变量,我们把它的密度函数称为概率质量密度函数对概率密度函数作类似福利叶变换可以得到特征函数。

特征函数与概率密度函数有⼀对⼀的关系。

因此,知道⼀个分布的特征函数就等同于知道⼀个分布的概率密度函数。

(这⾥就是提⼀嘴,本⽂所讲的内容与特征函数关联不⼤,如果不懂可以暂时忽略。

)1.2 似然函数 官⽅⼀点解释似然函数是,它是⼀种关于统计模型中的参数的函数,表⽰模型参数的似然性(likelyhood)。

最大似然估计概述

最大似然估计概述

最大似然估计概述最大似然估计是一种统计方法,它用来求一个样本集的相关概率密度函数的参数。

这个方法最早是遗传学家以及统计学家罗纳德·费雪爵士在1912年至1922年间开始使用的。

“似然”是对likelihood 的一种较为贴近文言文的翻译,“似然”用现代的中文来说即“可能性”。

故而,若称之为“最大可能性估计”则更加通俗易懂。

最大似然法明确地使用概率模型,其目标是寻找能够以较高概率产生观察数据的系统发生树。

最大似然法是一类完全基于统计的系统发生树重建方法的代表。

该方法在每组序列比对中考虑了每个核苷酸替换的概率。

最大似然法是要解决这样一个问题:给定一组数据和一个参数待定的模型,如何确定模型的参数,使得这个确定参数后的模型在所有模型中产生已知数据的概率最大。

通俗一点讲,就是在什么情况下最有可能发生已知的事件。

举个例子,假如有一个罐子,里面有黑白两种颜色的球,数目多少不知,两种颜色的比例也不知。

我们想知道罐中白球和黑球的比例,但我们不能把罐中的球全部拿出来数。

现在我们可以每次任意从已经摇匀的罐中拿一个球出来,记录球的颜色,然后把拿出来的球再放回罐中。

这个过程可以重复,我们可以用记录的球的颜色来估计罐中黑白球的比例。

假如在前面的一百次重复记录中,有七十次是白球,请问罐中白球所占的比例最有可能是多少?我想很多人立马有答案:70%。

这个答案是正确的。

可是为什么呢?(常识嘛!这还要问?!)其实,在很多常识的背后,都有相应的理论支持。

在上面的问题中,就有最大似然法的支持例如,转换出现的概率大约是颠换的三倍。

在一个三条序列的比对中,如果发现其中有一列为一个C,一个T和一个G,我们有理由认为,C和T所在的序列之间的关系很有可能更接近。

由于被研究序列的共同祖先序列是未知的,概率的计算变得复杂;又由于可能在一个位点或多个位点发生多次替换,并且不是所有的位点都是相互独立,概率计算的复杂度进一步加大。

尽管如此,还是能用客观标准来计算每个位点的概率,计算表示序列关系的每棵可能的树的概率。

第57讲 最大似然估计法 (1)

第57讲 最大似然估计法 (1)

概率论与数理统计主讲:四川大学四川大学1§7.1 点估计四川大学3第57讲最大似然估计法(1)四川大学四川大学4最大似然估计法Maximum Likelihood EstimationMLE四川大学5四川大学6最大似然估计法是建立在最大似然原理基础上的一种参数估计法。

所谓最大似然原理是指:假设一个随机试验E 有若干可能的结果A 1, A 2, …。

如果只进行了一次试验,而结果A k 出现了,那么我们就有理由认为试验的条件对结果A k 的出现最有利,即试验E 出现的结果A k 的概率最大。

也叫极大似然估计法。

四川大学四川大学四川大学7例如,设一袋中装有白球和黑球,并且已知两种颜色的球的比例为8:2,但不知道哪一种颜色的球更多。

如果有放回地从袋中取两次球,每次取一个,结果两次都取到黑球,那么我们有理由认为黑球占80%。

因为若黑球占80%,则两次都取到黑球的概率为0.82=0.64。

相反,如果黑球只占20%,则两次都取到黑球的概率为0.22=0.04。

四川大学四川大学四川大学8因为若黑球占80%,则两次都取到黑球的概率为0.82=0.64。

相反,如果黑球只占20%,则两次都取到黑球的概率为0.22=0.04。

因此,两次都取到黑球对我们判断黑球占80%=0.8有利。

最大似然法的基本思想就是:对于已经出现的样本值x 1, x 2,…, x n ,适当地选取参数θ,使试验得出结果X 1=x 1, X 2=x 2, …, X n =x n 的概率最大。

四川大学四川大学最大似然估计法的模型四川大学9四川大学10设总体X 为离散型随机变量,其分布律为其中θ是未知参数,X 1, X 2,…, X n 为来自总体X 的样本,x 1, x 2, …, x n 为其一组样本值。

记{}(;)P X x p x θ==()L θ1122{,,...,}n n P X x X x X x ====1122{}{}{}n n P X x P X x P X x ===⋅⋅⋅=1{}n i i i P X x ===∏1(;)ni i p x θ==∏独立性同分布L (θ)称为样本x 1, …, x n 的似然函数Likelihood function四川大学四川大学11()L θ11{,...,}n n P X x X x ===1(;)n i i p x θ==∏L (θ)称为样本x 1, …, x n 的似然函数由于L (θ)是事件{X 1=x 1, …, X n =x n }的概率,由最大似然估计法的思想,我们希望求这样的使得达到L (θ)的最大值,即ˆθˆ()L θ因为样本值x 1, …, x n 是已知的常数,L (θ)是θ的一元函数。

最大似然估计概述

最大似然估计概述

最大似然估计概述最大似然估计是一种统计方法,它用来求一个样本集的相关概率密度函数的参数。

这个方法最早是遗传学家以及统计学家罗纳德·费雪爵士在1912年至1922年间开始使用的。

“似然”是对likelihood 的一种较为贴近文言文的翻译,“似然”用现代的中文来说即“可能性”。

故而,若称之为“最大可能性估计”则更加通俗易懂。

最大似然法明确地使用概率模型,其目标是寻找能够以较高概率产生观察数据的系统发生树。

最大似然法是一类完全基于统计的系统发生树重建方法的代表。

该方法在每组序列比对中考虑了每个核苷酸替换的概率。

最大似然法是要解决这样一个问题:给定一组数据和一个参数待定的模型,如何确定模型的参数,使得这个确定参数后的模型在所有模型中产生已知数据的概率最大。

通俗一点讲,就是在什么情况下最有可能发生已知的事件。

举个例子,假如有一个罐子,里面有黑白两种颜色的球,数目多少不知,两种颜色的比例也不知。

我们想知道罐中白球和黑球的比例,但我们不能把罐中的球全部拿出来数。

现在我们可以每次任意从已经摇匀的罐中拿一个球出来,记录球的颜色,然后把拿出来的球再放回罐中。

这个过程可以重复,我们可以用记录的球的颜色来估计罐中黑白球的比例。

假如在前面的一百次重复记录中,有七十次是白球,请问罐中白球所占的比例最有可能是多少?我想很多人立马有答案:70%。

这个答案是正确的。

可是为什么呢?(常识嘛!这还要问?!)其实,在很多常识的背后,都有相应的理论支持。

在上面的问题中,就有最大似然法的支持例如,转换出现的概率大约是颠换的三倍。

在一个三条序列的比对中,如果发现其中有一列为一个C,一个T和一个G,我们有理由认为,C和T所在的序列之间的关系很有可能更接近。

由于被研究序列的共同祖先序列是未知的,概率的计算变得复杂;又由于可能在一个位点或多个位点发生多次替换,并且不是所有的位点都是相互独立,概率计算的复杂度进一步加大。

尽管如此,还是能用客观标准来计算每个位点的概率,计算表示序列关系的每棵可能的树的概率。

最大似然估计

最大似然估计

第6 章最大似然估计如果回归模型存在非线性,常使用最大似然估计法(MLE)。

6.1最大似然估计法的定义假设随机向量y 的概率密度函数为f ( y;θ) ,其中θ为K 维未知参数向量,θ∈Θ。

Θ为参数空间,即参数θ所有可能取值所构成的集合。

2通过抽取随机样本{ y 1, , y n }来估计θ 。

假设{ y 1, , y n } 为 iid ,则样本数据的联合密度函数为f ( y 1; θ ) f ( y 2 ; θ ) f ( y n ; θ )。

在抽样前,{ y 1, , y n }为随机向量。

抽样后,{ y 1, , 函数视为在{ y 1, , y n }有了特定的样本值,可将样本联合密度y n }给定情况下,未知参数θ 的函数。

3n=定义似然函数(likelihood function)为L (θ ; y 1, , y n ) = ∏ i =1f ( y i ; θ )似然函数与联合密度函数完全相等,只是θ 与{ y 1, , y n }的角色互换,即把θ 作为自变量,而视{ y 1, , y n }为给定。

为了运算方便,常把似然函数取对数:ln L (θ ; y 1, , y n nln i 1f ( y i ; θ ) ) = ∑4ML“最大似然估计法”(Maximum Likelihood Estimation ,简记 MLE 或 ML)的思想:给定样本取值后,该样本最有可能来自参数θ 为何值的总体。

寻找θˆ ,使得观测到样本数据的可能性最大,即最大化对 数似然函数(loglikelihood function):max ln L (θ ; y )θ∈Θ最大似然估计量θˆ 可写为,ˆ ≡ arg max ln L (θ ; y ) ML ML θ5⎝ K ⎭其中, “argmax ”(argument of the maximum) 表示能使 ln L (θ ; y )最大化的θ 取值。

最大似然估计法

最大似然估计法

最大似然估计最大似然估计(Maximum Likelihood,ML)最大似然估计概述最大似然估计是一种统计方法,它用来求一个样本集的相关概率密度函数的参数。

这个方法最早是遗传学家以及统计学家罗纳德·费雪爵士在1912年至1922年间开始使用的。

“似然”是对likelihood 的一种较为贴近文言文的翻译,“似然”用现代的中文来说即“可能性”。

故而,若称之为“最大可能性估计”则更加通俗易懂。

最大似然法明确地使用概率模型,其目标是寻找能够以较高概率产生观察数据的系统发生树。

最大似然法是一类完全基于统计的系统发生树重建方法的代表。

该方法在每组序列比对中考虑了每个核苷酸替换的概率。

例如,转换出现的概率大约是颠换的三倍。

在一个三条序列的比对中,如果发现其中有一列为一个C,一个T和一个G,我们有理由认为,C和T所在的序列之间的关系很有可能更接近。

由于被研究序列的共同祖先序列是未知的,概率的计算变得复杂;又由于可能在一个位点或多个位点发生多次替换,并且不是所有的位点都是相互独立,概率计算的复杂度进一步加大。

尽管如此,还是能用客观标准来计算每个位点的概率,计算表示序列关系的每棵可能的树的概率。

然后,根据定义,概率总和最大的那棵树最有可能是反映真实情况的系统发生树。

[编辑]最大似然估计的原理给定一个概率分布D,假定其概率密度函数(连续分布)或概率聚集函数(离散分布)为f D,以及一个分布参数θ,我们可以从这个分布中抽出一个具有n个值的采样,通过利用f D,我们就能计算出其概率:但是,我们可能不知道θ的值,尽管我们知道这些采样数据来自于分布D。

那么我们如何才能估计出θ呢?一个自然的想法是从这个分布中抽出一个具有n个值的采样X1,X2,...,X n,然后用这些采样数据来估计θ.一旦我们获得,我们就能从中找到一个关于θ的估计。

最大似然估计会寻找关于θ的最可能的值(即,在所有可能的θ取值中,寻找一个值使这个采样的“可能性”最大化)。

最大似然估计

最大似然估计

n
p( xi , )
L( ) i1
n
f
(
xi ,
)
i 1
X是离散型随机变量 X是连续型随机变量
2.写出似然方程
d L( ) 0 d

d ln L( ) d
1
L( )
d
L( ) d
0
3.求解似然方程
得到驻点, 并判断驻点是否为
最大值点.
几种常见分布的 最大似然估计量
1.0—1分布
设总体
X
~
设其密度函数为
X ~ f ( x; )
其中θ是待估参数,

n
L(
)
f
(
x1;
)
f
(
x2;
) ...
f
(
xn;
)
i 1
f
(
xi ;
)
为待估参数θ的函数,
它的大小反映了
( X1, X2 ,..., Xn ) 落在 ( x1, x2 ,..., xn ) 附近的概率的大小.
L( ) 称为似然函数.
若 L( ) 在 ˆ处达到最大值,
记为
p( x1;
) p(
x2;
)... p(
xn;
)
i 1
p(
xi ;
)
L(
)
L( )为待估参数θ的函数,
称为似然函数.
若 L( )在 ˆ处达到最大值,
则称 为ˆ参数 的 最大
似然估计值. 相应的估计量 ˆ( X1, X2,..., Xn ) 称为θ
的最大似然估计量.
统称为θ的 最大似然估计.
当 X是 连续型随机变量时,
2

统计推断中的最大似然估计法

统计推断中的最大似然估计法

统计推断中的最大似然估计法在统计推断中,最大似然估计法(Maximum Likelihood Estimation, MLE)是一种常用的参数估计方法。

它基于样本的观测结果,通过选择使得观测到的数据最有可能出现的参数值,来对未知参数进行估计。

最大似然估计法在各个领域都有广泛的应用,如生物统计学、经济学和工程学等。

最大似然估计法的基本思想是,给定一组观测到的数据,我们希望找到使得这组数据出现的概率最大的参数值。

假设我们有一个概率模型,其参数记为θ,观测到的数据记为x。

最大似然估计法的目标就是找到使得P(x; θ) 最大的参数值θ。

其中,P(x; θ) 表示在给定参数θ的情况下,观测到数据x的概率。

以具体的例子来说明最大似然估计法的应用。

假设我们有一组观测到的数据x1, x2, ..., xn,这些数据是从一个正态分布中获得的,我们希望利用最大似然估计法来估计该分布的均值μ和方差σ^2。

正态分布的概率密度函数为:f(x; μ, σ^2) = (1 / sqrt(2πσ^2)) * exp(-(x-μ)^2 / (2σ^2))我们的目标是找到最大似然估计下的参数值(μ_hat, σ_hat^2),使得P(x1, x2, ..., xn; μ_hat, σ_hat^2) 最大。

为了简化计算,我们通常使用对数似然函数来代替概率。

对于正态分布,对数似然函数为:L(μ, σ^2) = log(P(x1, x2, ..., xn; μ, σ^2)) = -n/2 * log(2π) - n/2 * log(σ^2) - 1 / (2σ^2) * Σ(xi-μ)^2其中Σ 表示求和。

为了找到最大似然估计下的参数值,我们需要最大化对数似然函数。

通常,我们通过求导数来找到取得最大值的参数值。

对于上述例子中的均值μ和方差σ^2,分别对其求偏导数,并令导数等于0,可以得到如下的最大似然估计值:μ_hat = (1/n) * Σxiσ_hat^2 = (1/n) * Σ(xi-μ_hat)^2这些估计值就是最大似然估计下的参数值。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

是似然函数的最大值点 ,
也就是要求的未知参数θ 的估计量

Ronald Fisher 1890 -- 1962
F分布是1924年英国 统计学家 Fisher 提 出,并以其姓氏的第 一个字母命名。
Fis从0-1分布,即 X ~ b(1, p), X1, X2, …, Xn 是来自总体 X 的一个样本, 试求参数 p 的矩估计量和最大似然估imum Likelihood Estimation
最大似然估计法是建立在最大似然原理基础 上的一种参数估计法。也叫极大似然估计法。
所谓最大似然原理是指:假设一个随机试验 E 有若干可能的结果 A1, A2, …
如果只进行了一次试验,而结果 Ak 出现了, 那么我们就有理由认为试验的条件对结果 Ak 的出现最有利,即试验 E 出现的结果 Ak 的 概率最大。
欲求 L(λ ) 的最大值点。 当 xi>0 ( i=1,2, 的矩估计值
和 最大似然估计值为
pˆ 1 n x
n
xi
i1
例如,设有10个样本值: 四川大学 徐小湛
1.23, 1.34, 5.23, 2.34, 0.23, 0.12, 0.56, 1.87, 3.24, 2.43
则参数 λ 的估计值为
1 1
x
1 10 10 i1 xi
1
1.859
0.538
例3 设总体 X 的概率 (0<θ <1 )是未知参数,现抽得一个样本 值 x1=1, x2=2, x3=1, 求θ 的矩估计值和最大似然 估计值。
设总体 X 的 X 1 2

X ~10 p
1 p
先求 p 的矩估计量
四川大学 徐小湛
E(X) p 用样本均值代替总体均值E(X),
得 p 的矩估计量:
pˆ X

1 n
n i1
Xi
X
ห้องสมุดไป่ตู้
~
0 1
p
1 p
四川大学 徐小湛
再求 p 的最大似然估计量。传课P{X x} px (1 p)1x x 0,1
i 1
欲求 L(p) 的最大值点。 显然,L(p)>0
n
取对数 ln L( p) ln[ pxi (1 p)1xi ]
n
i 1
[xi ln p (1 xi ) ln(1 p)]
i 1
对p求导: d ln L( p) n ( xi 1 xi )
dp
i1 p 1 p
设 x1, x2, …, xn 是给定的样本值,
相应的似然函数
n
L( p) pxi (1 p)1xi
i 1
欲求 L(p) 的最大值点。
(0 p 1)
设 x1, x2, …, xn 是给定的样本值,相应的百似度然传
课 函数
四川大学 徐小湛
n
L( p) pxi (1 p)1xi (0 p 1)
dp
i1 p 1 p
p

1 n
n i 1
xi

x
驻点
四川大学 徐小湛
可以验证
d 2 ln L( p)
dp2
|p x 0
即 L(p) 在样本均值处取得最大值
n
故 p 的最大似然估计值为 pˆ x 1
n
xi
ln L( p) n [xi ln p (1 xiX2,…, Xn 为来自总体 X 的样本,x1, x2, …, xn 为其一组样本值。记
P{X1 x1, X 2 x2 ,..., X n xn} 独立性
P{X1 x1}P{X 2 x2 } P{X n xn }
i 1
对p求导: d ln L( p) n ( xi 1 xi )
dp
i1 p 1 p
p

1 n
n i 1
xi

x
驻点
故 p 的最大似然估计值为
pˆ x

1 n
n i1
xi
p 的最大似然估计量为

X

1 n
n i1
Xi
与 p 的矩估计量相同。
X
~
0 1
因为样本值 x1, …, xn 是已知的常数,L(θ )是θ
的 一元函数。
四川大学 徐小湛
由于L(θ )是事件{X1=x1, …, Xn=xn}的概率,由最 大似然估计法的思想,我们希望求这样的
使得 L( )达到L(θ )的最大值,即 L( ) max L( )

其中Θ 是θ 的取值范围。
如果X为连续型随机变量,其概率密度为
对p求导: d ln L( p)

n
( xp 1 p
四川大学 徐小湛 令导数为零,得
n
( xi
1 xi ) 0
i1 p 1 p
n xi n 1 xi
i1 p i1 1 p
1
p
n
xi
i 1
1 (n 1 p
n
L( ) f (xi ; )
i 1
由于似然函数是n个函数的乘积,直接求导不 方 便,宜用对数求导法来求其最大值点。
• 将似然函数取自然对数: 四川大学 徐小

ln L(
)

ln

n i 1
f (xi ;
)

n i 1
ln
f
(x i;
)
由于自然对数是单调增加的函数,ln L(θ )与 L(θ )有相同的最大值点,所以只需求ln L(θ )的 最大值点作为未知参数的估计量。
n
n
P{X i xi} p(xi ; ) 同分布
i 1
i 1
L(θ )称为样本x 1, …, x n 的似然函数
Likel1,..., X n xn} p(xi ; ) i 1
L(θ )称为样本x1, …, xn 的似然函数
因为若黑球占80%,则两次都取到黑球百的度概传率课 为 0.82=0.64。相反,如果黑球只占20%,则两 次都取到黑球的概率为 0.22=0.04。
因此,两次都取到黑球对我们判断黑球占 80%=0.8有利。
最大似然法的基本思想就是:
对于已经出现的样本值 x1, x2,…, xn,适当地选 取参数θ ,使试验得出结果 X1=x1, X2=x2, …, Xn=xn的概率最大。
n
xi )
i 1
1 p
p
n i 1
xi
n
n xi
p

1 n
i n1 i 1
xi
(
1 p
1)
n i 1
xi
x 驻点
n
n i1
xi
ln L( p) n [xi ln p (1 xi ) ln(1 p)百] 度传课
i 1
对p求导: d ln L( p) n ( xi 1 xi )
f (x; ) ( )
则样本值 x1, x2, …, xn 所对应的似然函数为: n L( ) f (xi; ) i 1 如何求似然函数的最大值点 ˆ ? 在很多情况下,函数 p(x;θ )或 f(x;θ )是可导函 数 ,此时我们可以用微积分知识,求L(θ )的最 大值点 。
为此,须求似然函数的驻点(导数为 0 的点)。
例如,设一袋中装有白球和黑球,并且百已度知传课 两种颜色的球的比例为 8:2,但不知道哪一种
颜色的球更多。 四川大学 徐小湛
如果有放回地从袋中取两次球,每次取一 个,结果两次都取到黑球,那么我们有理由 认为黑球占80%。
因为若黑球占80%,则两次都取到黑球的概 率为 0.82=0.64。
相反,如果黑球只占20%,则两次都取到黑 球的概率为 0.22=0.04。p1 p传课 概率 p 的矩估计值和
最大似然估计值为
pˆ x 1 n xi
n i1
例如,设有20个样本值: 四川大学 徐小湛
1, 0, 1, 1, 1, 0, 1, 1, 0, 1, 0, 1, 0, 1, 0, 1, 1, 0, 1, 1
则概率 p 的估计值为

x

1 20
3
概率分布为 pk
现抽得一个样本 x1=1, x2=2, x3=1, 。
现在来求θ 的最大似然估计值。
构造样本值对应的似然函数
传课
P{X 1}P{X 2}P{X 1}
欲求 L(θ ) 的最大值点。
求导: 令导数为0,得θ 的最大似然估计 这与θ 的矩估计值相同。
Xi
i1 第57
求 λ 的最大似然估计量。
设 x1, x2, …, xn 是给定的样本值,相应的似然函数
四川大学 徐小湛 xi 0, i 1, 2,..., n
其他
欲求 L(λ ) 的最大值点。 只讨论样本值大于零的情形(样本小于或等于 零的概率为零,而且此时L(λ )恒为零。)
设 x1, x2, …, xn 是给定的样本值,相应的似然函数大学 徐小湛
n
L( ) p(xi ; ) 离散型总体
i 1 n
或 L( ) f(xi ; ) 连续型总体
i 1
n
(2) 取对数 ln L( ) ln f (xi ; )
i 1
(3) 求导数,并令导数为零,得到的驻点一般就
20 i1
xi

13 20 0.65传课 例2 设总体X ~ e(λ ), λ 未知,
X1, X2, …, Xn 是来自总体 X 的一个样本, 试
相关文档
最新文档