信号检测与估计理论(7)第七章 最大似然估计

合集下载

最大似然估计详解

最大似然估计详解

最⼤似然估计详解⼀、引⼊ 极⼤似然估计,我们也把它叫做最⼤似然估计(Maximum Likelihood Estimation),英⽂简称MLE。

它是机器学习中常⽤的⼀种参数估计⽅法。

它提供了⼀种给定观测数据来评估模型参数的⽅法。

也就是模型已知,参数未定。

在我们正式讲解极⼤似然估计之前,我们先简单回顾以下两个概念:概率密度函数(Probability Density function),英⽂简称pdf似然函数(Likelyhood function)1.1 概率密度函数 连续型随机变量的概率密度函数(pdf)是⼀个描述随机变量在某个确定的取值点附近的可能性的函数(也就是某个随机变量值的概率值,注意这是某个具体随机变量值的概率,不是⼀个区间的概率)。

给个最简单的概率密度函数的例⼦,均匀分布密度函数。

对于⼀个取值在区间[a,b]上的均匀分布函数\(I_{[a,b]}\),它的概率密度函数为:\[f_{I_{[a,b]}}(x) = \frac{1}{b-a}I_{[a,b]} \]其图像为:其中横轴为随机变量的取值,纵轴为概率密度函数的值。

也就是说,当\(x\)不在区间\([a,b]\)上的时候,函数值为0,在区间\([a,b]\)上的时候,函数值等于\(\frac{1}{b-a}\),函数值即当随机变量\(X=a\)的概率值。

这个函数虽然不是完全连续的函数,但是它可以积分。

⽽随机变量的取值落在某个区域内的概率为概率密度函数在这个区域上的积分。

Tips:当概率密度函数存在的时候,累计分布函数是概率密度函数的积分。

对于离散型随机变量,我们把它的密度函数称为概率质量密度函数对概率密度函数作类似福利叶变换可以得到特征函数。

特征函数与概率密度函数有⼀对⼀的关系。

因此,知道⼀个分布的特征函数就等同于知道⼀个分布的概率密度函数。

(这⾥就是提⼀嘴,本⽂所讲的内容与特征函数关联不⼤,如果不懂可以暂时忽略。

)1.2 似然函数 官⽅⼀点解释似然函数是,它是⼀种关于统计模型中的参数的函数,表⽰模型参数的似然性(likelyhood)。

详解最大似然估计、最大后验概率估计及贝叶斯公式

详解最大似然估计、最大后验概率估计及贝叶斯公式

详解最大似然估计、最大后验概率估计及贝叶斯公式最大似然估计(Maximum Likelihood Estimation,简称MLE)是一种参数估计方法,用于根据样本数据推断出最有可能的模型参数。

它的基本思想是在给定观测数据的情况下,选择使得观测数据出现的概率最大的参数值作为估计值。

假设有一个参数化的概率分布模型,其中包含一个参数θ,需要通过最大似然估计来估计θ。

给定一个观测数据集D,假设每个样本都是独立同分布的。

那么似然函数L(θ|D)可以定义为在给定参数θ下,观测数据集D出现的概率。

最大似然估计的目标是找到使得似然函数取得最大值的参数θ。

最大后验概率估计(Maximum A Posteriori Estimation,简称MAP)是一种结合了先验概率和似然函数的参数估计方法。

它与最大似然估计的区别在于引入了一个先验概率分布P(θ)来描述对参数θ的先验知识,通过贝叶斯公式结合似然函数和先验概率来得到后验概率分布P(θ|D)。

最大后验概率估计的目标是找到使得后验概率分布取得最大值的参数θ。

贝叶斯公式是统计学中一条重要的公式,它描述了在已知先验概率和条件概率的情况下,计算后验概率的方法。

假设有两个事件A和B,其中事件A是先发生的事件,事件B是在事件A发生的条件下发生的事件。

那么贝叶斯公式可以表示为:P(A|B) = P(B|A) * P(A) / P(B)其中,P(A|B)是在事件B已经发生的条件下,事件A发生的概率;P(B|A)是在事件A已经发生的条件下,事件B发生的概率;P(A)是事件A发生的先验概率;P(B)是事件B发生的先验概率。

在最大后验概率估计中,贝叶斯公式被用来计算后验概率分布P(θ|D),其中P(θ)是参数θ的先验概率分布,P(D|θ)是在给定参数θ下,观测数据集D出现的似然函数。

最大后验概率估计通过最大化后验概率分布来估计参数θ的值。

《概率论》最大似然估计

《概率论》最大似然估计

第七章: 参数估计
7.1 矩估计
7.2 最大似然估计
7.3 估计量的优良性准则
7.4 正态总体的区间估计(一) *7.5 正态总体的区间估计(二) *7.6 非正态总体的区间估计
是在总体类型已知条件下使用的一种参数估计方法 .
它首先是由德国数学家高斯在1821年提出的 , Gauss
Fisher
然而,这个方法常归功于英国统计学家费歇 . 费歇在1922年重新发现了 这一方法,并首先研究了这 种方法的一些性质 .
§7.2 最大似然估计
最大似然估计法的基本思想就最大似然原理.
例1:设有一随机事件,已知它出现的概率p的可能值是0.01和0.99,若在一次试验中该事件就出现了,这时我们估计p 为0.99为更合理.
例2: 一个老猎人带领一个新手进山打猎,遇见一只飞奔的兔子,他们各发一弹,野兔被打中了,但身上只有一个弹孔,
最可能是谁打中的呢?不用问,我们认为是老猎人打中的更合理.
同样,机器出故障,有经验的修理工首先从最易损的部件查起.公安人员破案也是从最有嫌疑的人员开始查起.
最大似然原理:一次试验就出现的事件有较大的概率。

最大似然估计
分布中的未知参数 θ
进行估计 用途:根据从总体 X 中抽取的样本 1(,,)n X X …,对总体对离散型的随机变量:就是估计出概率函数中的参数 θ对连续型的随机变量:就是估计出概率密度中的 θ
θ这里说的总体未知参数通常指的是:
小结
本讲首先介绍参数矩估计的基本思想以及求矩估计的步骤,给出多个求参数矩估计的例子;然后介绍参数极大似然估计的基本原理,求极大似然估计的基本方法,给出多个求参数极大似然矩估计的例子。

作业:p150,7.1;7.2。

简述最大似然估计的原理

简述最大似然估计的原理

简述最大似然估计的原理最大似然估计是一种常见的参数估计方法,它的基本思想是在给定一组观测数据的情况下,通过选择最能解释这些数据的参数值来确定模型中未知参数的值。

在统计学中,最大似然估计被广泛应用于各种领域,如生物统计学、医学研究、金融分析等。

一、最大似然估计的基本思想最大似然估计是一种基于概率论的统计方法。

假设我们有一个样本集合X={x1,x2,…,xn},其中每个样本都是从某个未知分布中独立地抽取而来。

我们希望通过这些样本来推断出该分布的参数θ。

因此,我们需要找到一个函数L(θ|X),它能够给出在给定参数θ下观测到样本X 的概率密度函数(或概率质量函数)。

具体地说,对于连续型变量,L(θ|X)可以表示为:L(θ|X)=f(x1;θ)f(x2;θ)…f(xn;θ)其中f(xi;θ)表示在给定参数θ下观测到xi的概率密度函数;对于离散型变量,L(θ|X)可以表示为:L(θ|X)=f(x1;θ)f(x2;θ)…f(xn;θ)其中f(xi;θ)表示在给定参数θ下观测到xi的概率质量函数。

最大似然估计的基本思想是选择能够最大化L(θ|X)的参数值作为估计值。

也就是说,我们希望找到一个参数向量θ*,使得:L(θ*|X)=max{L(θ|X)}二、最大似然估计的实现方法在实际应用中,我们通常采用对数似然函数来简化计算。

因为对数函数是单调递增的,所以它可以保持最大值不变。

因此,我们可以将对数似然函数表示为:l(θ|X)=lnL(θ|X)=∑i=1nlnf(xi;θ)接着,我们需要求解使得l(θ|X)最大化的参数值。

这可以通过求解方程∂l(θ|X)/∂θ=0来实现。

由于这个方程通常很难直接求解,所以我们需要采用一些优化算法来近似地求解。

常见的优化算法包括牛顿法、梯度下降法、共轭梯度法等。

其中,梯度下降法是一种简单而有效的方法,在实际应用中被广泛采用。

梯度下降法的基本思想是通过迭代更新参数值,使得目标函数逐渐趋于最优解。

最大似然估计与参数的点估计

最大似然估计与参数的点估计

最大似然估计与参数的点估计最大似然估计(Maximum Likelihood Estimation, 简称MLE)是一种常用的统计推断方法,被广泛应用于各个领域中的参数估计问题。

通过选择使得样本观测值出现的概率最大的参数值,来估计未知参数。

在本文中,将介绍最大似然估计的原理和方法,并探讨参数的点估计。

一、最大似然估计的原理和方法最大似然估计的原理是基于概率论的思想和假设。

对于一个概率分布已知的模型,假设其参数为θ,观测到的样本为x。

最大似然估计的目标是找到一个最优的参数值θ^,使得在该参数值下,样本观测值x出现的概率最大。

我们可以通过以下步骤来求解最大似然估计:1. 建立概率模型:根据问题的具体情况,选择适当的概率分布模型,并对参数进行定义。

2. 构建似然函数:将观测样本的联合概率密度函数或者联合概率质量函数看作是参数θ的函数,记为L(θ|x)。

3. 求解最大似然估计:寻找使得似然函数取得最大值的参数θ^。

通常我们可以通过求解似然函数的导数为0的方程,或者对似然函数取对数后求解极值问题来找到最大似然估计。

最大似然估计具有很好的性质,包括可一致性、渐近正态性和高效性等。

它在统计推断中被广泛应用于参数的估计。

二、参数的点估计在最大似然估计中,通过寻找使得似然函数取得最大值的参数θ^,我们得到了参数的点估计。

点估计是指通过样本数据直接得到的对未知参数的估计。

对于最大似然估计,参数的点估计即为使得似然函数取得最大值时对应的参数值。

通过最大似然估计求得的参数估计值通常具有良好的统计性质,如一致性、渐近正态性等。

需要注意的是,最大似然估计得到的是一个点估计值,即对参数的一个具体估计。

在真实情况下,我们并不知道参数的真实值,所以通过点估计得到的估计值存在一定的误差。

三、总结最大似然估计是一种常用的参数估计方法,通过选择使得样本观测值出现的概率最大的参数值,来估计未知参数。

通过建立概率模型、构建似然函数以及求解最大似然估计,我们可以得到参数的点估计。

最大似然估计的原理及应用

最大似然估计的原理及应用

最大似然估计的原理及应用1. 原理概述最大似然估计(Maximum Likelihood Estimation,简称MLE)是统计学中一种常见的参数估计方法,通过寻找使观测数据发生的概率最大化的参数值,来估计未知参数的方法。

其基本原理是在给定观测数据的条件下,选择参数值使得似然函数(或对数似然函数)最大。

2. 最大似然估计的步骤最大似然估计的步骤可以总结为以下几点:1.建立概率模型:根据观测数据的特点,选择合适的概率分布模型,如高斯分布、泊松分布等。

2.构建似然函数:将观测数据与参数构成的概率模型相结合,得到关于参数的似然函数。

3.对似然函数取对数:通常对似然函数取对数,方便计算和推导。

4.求导并解方程:对似然函数取导数,并解方程找到使似然函数最大化的参数值。

5.参数估计:得到使似然函数最大化的参数值,作为对未知参数的估计。

3. 最大似然估计的优点最大似然估计具有以下几个优点:•简单易用:只需要建立合适的概率模型,并求解似然函数的最大值,无需额外的假设或先验知识。

•有效性:在样本量充足的情况下,最大似然估计能够产生高质量的参数估计结果。

•渐进无偏性:在样本量趋于无穷的情况下,最大似然估计的结果具有无偏性。

4. 最大似然估计的应用4.1. 二项分布的参数估计二项分布是一种常见的离散概率分布,用于描述n次独立的二元试验中成功次数的概率分布。

最大似然估计可以用来估计二项分布的参数。

假设我们观测到了一系列成功次数的数据,我们可以建立一个二项分布模型,并使用最大似然估计来确定二项分布的参数,如成功概率p。

4.2. 正态分布的参数估计正态分布是一种常见的连续概率分布,具有对称性和钟形曲线特点。

最大似然估计可以用来估计正态分布的参数,包括均值和方差。

假设我们观测到一组服从正态分布的数据,我们可以建立正态分布模型,并使用最大似然估计来确定正态分布的参数,如均值和方差。

4.3. 泊松分布的参数估计泊松分布是一种常见的离散概率分布,用于描述单位时间内独立事件发生次数的概率分布。

最大似然估计(极大似然估计)

最大似然估计(极大似然估计)

最⼤似然估计(极⼤似然估计)⽬录概率与似然对于最⼤似然估计我们使⽤最简单的抛硬币问题来进⾏讲解概率当我们抛⼀枚硬币的时候,就可以去猜测抛硬币的各种情况的可能性,这个可能性就称为概率⼀枚质地均匀的硬币,在不考虑其他情况下是符合⼆项分布的,即正⾯和翻⾯的概率都是0.5,那么我们抛10次硬币5次正⾯在上⾯的概率为:P(5次正⾯朝上)=C5100.55(1−0.5)5=0.24609375≈0.25似然但是现实⽣活中,我们并不知道硬币是否均匀,那么我们就需要通过多次抛硬币来推测硬币是否均匀或者说推测硬币每⼀⾯朝上的概率,这就是似然最⼤似然估计那么什么是最⼤似然估计(⼜称极⼤似然估计)呢?所谓的最⼤似然估计其实就是假设硬币正⾯朝上的概率,然后计算实验结果的概率是多少,概率越⼤,那么这个假设的概率越可能是真的。

假设我们投了10次硬币,其中有6次正⾯朝上,那么我们根据这个实验结果对其进⾏假设我们可以先假设正⾯朝上的概率为0.5,那么达到实验结果的概率为:P=C6100.56(1−0.5)4=0.205078125≈0.21我们还可以假设正⾯朝上的概率为0.6,那么达到实验结果的概率为P=C6100.66(1−0.6)4=0.25082265600000003≈0.25那么我们就可以说,正⾯朝上的概率为0.6要⽐0.5的更有可能。

当然,我们仅仅⽐较这两种情况是不够的,我们需要将所有的情况都进⾏对⽐,然后求出最⼤的可能性。

接下来我们使⽤作图的⽅法来看⼀下最有可能的取值根据上图我们可以看出,可能性最⼤的应该是正⾯概率为0.6的时候。

以上通过实验结果,然后对相应的概率进⾏假设,从⽽得到最有可能造成测试结果的概率的过程,就称为最⼤似然估计Processing math: 100%。

信号检测与估计填空题集

信号检测与估计填空题集

一、填空题说明填空题(每空1分,共10分)或(每空2分,共20分)二、第1章填空题1.从系统的角度看,信号检测与估计的研究对象是 加性噪声情况信息传输系统中的接收设备 。

从信号的角度看,信号检测与估计的研究对象是 随机信号或随机过程 。

2.信号检测与估计的基本任务:以数理统计为工具,解决接收端信号与数据处理中 信息恢复与获取 问题。

3.信号检测与估计的基本任务:以数理统计为工具,从被噪声及其他干扰污染的信号中 提取、恢复 所需的信息。

4.信号检测是在噪声环境中,判断 信号是否存在或哪种信号存在 。

信号检测分为 参量检测和 非参量检测 。

参量检测是以 信道噪声概率密度已知 为前提的信号检测。

非参量检测是在 信道噪声概率密度为未知 情况下的信号检测。

5.信号估计是在噪声环境中,对 信号的参量或波形 进行估计。

信号估计分为 信号参量估计和 信号波形估计 。

信号参量估计是对 信号所包含的参量(或信息) 进行的估计。

信号波形估计是对 信号波形 进行的估计。

6.信号检测与估计的数学基础:数理统计中贝叶斯统计的 贝叶斯统计决策理论和方法 。

三、第2章填空题1.匹配滤波器是在输入为 确定信号加平稳噪声 的情况下,使 输出信噪比达到最大 的线性系统。

2.匹配滤波的目的是从含有噪声的接收信号中,尽可能 抑制噪声,提高信噪比 。

3.匹配滤波器的作用:一是使滤波器 输出有用信号成分尽可能强 ;二是 抑制噪声,使滤波器输出噪声成分尽可能小 。

4.匹配滤波器的传输函数与输入 确定信号频谱的复共轭 成正比,与输入 平稳噪声的功率谱密度 成反比。

3.匹配滤波器传输函数的幅频特性与输入 确定信号的幅频特性成 正比,与输入 平稳噪声的功率谱密度 成反比。

4.物理不可实现滤波器也称作非因果滤波器:是指 物理上不可能实现或不满足因果规律 的滤波器。

5.物理不可实现匹配滤波器的冲激响应)(t h 满足: 0)(≠t h , ∞<<∞-t 。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

数最大。 需要指出,最大似然函数不仅产生渐进有效估计,对于有限 数据也可产生有效估计。下面举例说明。
例7-4 WGN 中的直流量估计 已知观测数据为
x[n] = A + w[n]
n = 0,1,", N − 1
式中 A 为待估计参量, w[n] 是已知方差为 σ 2 的 WGN。显然 PDF (或似然函数)为 1 ⎡ 1 N −1 2⎤ p(x; A) = exp⎢− 2 ∑(x[n] − A) ⎥ N ⎣ 2σ n=0 ⎦ (2πσ 2 ) 2 取自然对数后求导 ∂ ln p(x; A) 1 N −1 = 2 ∑ ( x[n] − A]) ∂A σ n =0 令上式等于零求得 MLE 为
假设 T ( x) 是一个完全的充分统计量,则我们要找的 g 应满足
⎡ ⎛ N −1 2 ⎞⎤ E ⎢ g ⎜ ∑ x [ n] ⎟ ⎥ = A ⎠⎦ ⎣ ⎝ n =0
对于所有的 A
由于
⎡ N −1 2 ⎤ 2 E ⎢ ∑ x [ n ] ⎥ = NE ⎡ ⎣ x [ n ]⎤ ⎦ ⎣ n=0 ⎦
(
)
MVU 估计应是
N −1 ⎞ ⎛ E⎜ x [ 0 ] x 2 [ n] ⎟ ∑ ⎟ ⎜ n =0 ⎠ ⎝
(7-3)
然而,求上述条件概率是非常繁琐的事,不易得到 MVU 估计。
使用上述方法均无法找到 MVU 估计。 然而, 我们还是可以 提出一些估计,例如,考虑 A 是均值,选择估计为
x ˆ =⎧ A ⎨ 1 ⎩0
例7-5 仍考虑例 7-2 的问题(修改的 WGN 中的直流量估计,
A为待估计参量, w[n] 是方差为 A 的 WGN)
为了知道观测长度必须多大才能应用渐进结果,需要进行计 算机仿真。
ˆ 是(7-6)式, 我们已经知道修改的 WGN 中的直流量估计 A

N −1 1 ˆ = −1 + 1 A x 2 [n] + ∑ N n =0 2 4
^
( )
^

M
i =1
ˆ A i
(7-9)
^ M ⎛ 1 ˆ = ˆ −E A ˆ var A A ⎜ ∑ i ⎜ M i=1 ⎝
()
()
⎞ ⎟ ⎟ ⎠
2
(7-10)
② 利用直方图,确定 PDF。 表 7-1 给出了 A = 1 情况下的不同数据记录长度的结果。理论 上的渐进均值和归一化(normalized)方差为
− N /2
(7-1)
ln p(x; A) = ln[( 2π A)
⎡ 1 N −1 2⎤ ] + ⎢− ∑( x[n] − A) ⎥ ⎣ 2A n=0 ⎦
对上式求 A 的偏导
∂ ln p(x; A) N 1 N −1 1 N −1 2 = − + ∑( x[n] − A) + 2 ∑(x[n] − A) ∂A 2 A A n=0 2 A n=0
1 N

N −1 n=0
x 2 [ n] 服
ˆ 是随机变 从高斯分布。又由于是在大数情况下, (7-7)式中的 A ˆ 也服从高斯分布。 量的线性函数,所以 A
7.2 最大似然估计(MLE)的确定
MLE 的定义:在未知参量θ 的取值范围内,对于确定的 x , 使似然函数 p(x;θ ) 最大的θ 值定义为 MLE。由于 p(x;θ ) 是 x 的函 数,所以最大化后产生的θˆ 也是 x 的函数。
w[1] " w[ N − 1]]
T

2
ˆ = −1 + A 与 w[n] 相加得出 x[ n] ,利用 A 2
1 N
∑x
n =0
N −1
[ n] +
1 4
ˆ。 计算 A
ˆ 的实现。 ③ 重复上述过程 M 次,从而产生 M 个 A
(2)统计性能:
ˆ 的均值和方差: ① 确定 A
ˆ = 1 E A M
图 7-1 给出了 x = x 0 的 p(x;θ ) 关于θ 的曲线,如果 x = x 0 确实是 已经观测到的数据,那么,可以推断θ = θ 1 是不可能的,因为如果 θ = θ 1 ,则观测到 x = x 0 的概率非常小。而 θ = θ 2 更可能是真值,因 为在这一点,观测到 x = x 0 的概率很大,因此选择 θˆ = θ 2 作为估计 量,或者说在允许的θ 范围内,使 p(x 0 ;θ ) 最大的值 θ 2 作为估计量。
ˆ) = var( A
N (A + 1 2)
2
1⎞ ⎛ 4 A2 ⎜ A + ⎟ 2⎠ ⎝
A2 = N (A + 1 2 )
根据(7-2)式,上式结果恰好是 CRLB。 综上, (7-6) 式给出的估计是渐进无偏的并渐进地获得 CRLB, 因此,它是渐进有效的。
另外, 根据中心极限定理, 当 N → ∞ 时, 随机变量
θˆ ~ N (θ , I
a
a
−1
(θ ))
(7-8)
式中符号 ~ 表示“渐进服从” ,这个结果是相当通用的,并且是论 述 MLE 的最优性的基础。 当然,在实际中,很少事先知道 N 必须多大才能满足(7-8) 式。另外,通常不可能推导出 MLE 的 PDF 的解析表达式,这样 就不能评价其性能的好坏。然而,借助计算机仿真可以评价其性 能。
2 =N⎡ ⎣ var ( x[ n ] ) + E ( x[ n ] ) ⎤ ⎦ = N ( A + A2 ) 如何选择 g 不明显, 不能简单地变换充分统计量来产生无偏估计。 我们再利用第二种方法求 MVU 估计,即确定条件概率 N −1 ˆ 是任意无偏估计。如果选择 A = x[0] ,那么 E A ∑ n = 0 x 2 [ n] ,这里 A
式中, A为待估计参量, w[n] 是方差为 A 的 WGN。因为待估计参 量 A 是观测值的均值和方差,此估计问题不同于前面的问题。
首先我们利用第 3 章介绍的 CRLB 法看能否找到满足等式 条件的 A 的 MVU。已知观测值的 PDF 为
p(x; A) =
取自然对数
1
(2πA) 2
N
⎡ 1 N −1 (x[n] − A)2 ⎤ exp⎢− ∑ ⎥ ⎣ 2 A n =0 ⎦
图 7-1 最大似然估计的原理说明
例 7-3 继续例 7-1 的问题( A为待估计参量, w[n] 是方差为 A 的 WGN) 现在利用最大似然原则解决该问题,由(7-1)可知 PDF 为
p(x; A) =
1 (2πA)
N 2
⎡ 1 N −1 (x[n] − A)2 ⎤ exp⎢− ∑ ⎥ ⎣ 2 A n =0 ⎦
ˆ 的均值和方差,可利用线性化方法。 为了求出当 N → ∞ 时的 A
令u =
1 N

N −1 n=0
ˆ ,即 x 2 [n] , u 的函数 g (u ) = A
1 1 g (u ) = − + u + 2 4
由于当 N → ∞ , 进行线性化如下
u=
1 N
∑x
n =0
N −1
2
[n] → A + A 2 ,则 g (u ) 在 u 0 = A + A 2 处,可
p ( x; A ) = 1 ⎡ 1 ⎛ 1 N −1 ⎞⎤ exp ⎢ − ⎜ ∑ x 2 [ n ] + NA ⎟ ⎥ exp ( N x ) ⎠⎦ ⎣ 2 ⎝ A n =0
(2πA ) 2
N
⎛ N −1 ⎞ g ⎜ ∑ x 2 [n], A⎟ ⎝ n =0 ⎠
h( x)
根 据 Neyman-Fisher 因 式 分 解 定 理 , A 的 充 分 统 计 量 为 N −1 T (x) = ∑n =0 x 2 [n] 。下一步就是假设 T ( x) 是完备的充分统计量的条件 下,找出一个能产生无偏估计量 的 T ( x) 的函数 g,这个函数是 A 的无偏估计。
考虑它是 A 的函数,也就是似然函数。取自然对数后微分得
N 1 N −1 ∂ ln p(x; A) 1 N −1 (x[n] − A])2 =− + ∑ ( x[n] − A]) + ∑ 2A A ∂A 2 A2 n = 0 n =0
令上式等于零可求得
ˆ2 + A ˆ− N − 1 A 2A N
∑x
7.1 问题的提出 通过举例来讨论为什么我们对近似的最优估计感兴趣。在举 例中我们可以看到,用以前的方法不能明显地找到 MVU,这 时可以考虑近似的最优估计,这个近似最优估计就是最大似 然估计(MLE) ,它近似地等于 MVU。 例 7-1 修改的 WGN 中的直流量的估计 已知观测数据为
x[n] = A+ wn [] n = 0,1,", N −1
N −1
2
⎞ 1 [n] ⎟ + ⎠ 4
对所有的 A
1 1 = − + A + A2 + = A 2 4
所以这个估计是有偏的, 然而, 它确实是合理的。 因为当 N → ∞ 时, 根据大数定律有 1 N −1 2 x [ n ] → E (x 2 [ n ] ) = A + A 2 ∑ N n=0 ˆ→A A (根据(7-6)式)有 ˆ 就称为一致估计。 因此,这个估计量 A
g (u ) ≈ g (u 0 ) +

ˆ ≈ A+ A ⎡1 1⎢ N A+ ⎣ 2 1 2
dg (u ) du
u =u0
(u − u 0 )
∑x
n =0
N −1
2
⎤ [n] − A + A 2 ⎥ ⎦
(
)
(7-7)
则渐进均值为
ˆ = A E A
相关文档
最新文档