稀疏贝叶斯学习介绍

合集下载

稀疏贝叶斯方法

稀疏贝叶斯方法

稀疏贝叶斯方法稀疏贝叶斯方法简介稀疏贝叶斯方法是一种用于统计推断的机器学习技术。

它基于贝叶斯定理,通过引入稀疏性先验概率,在处理高维数据问题时能够有效地降低计算复杂度和存储需求。

本文将详细说明稀疏贝叶斯方法的各种具体技术。

1. 贝叶斯定理贝叶斯定理是概率论中的重要定理,描述了在已知条件下,求解事件的后验概率。

假设A和B为两个事件,则根据贝叶斯定理,可以得到以下关系式:P(A|B) = P(B|A) * P(A) / P(B)其中,P(A|B)表示在事件B发生的条件下,事件A发生的概率。

2. 稀疏贝叶斯方法原理稀疏贝叶斯方法通过引入稀疏性先验概率,对高维数据进行处理。

具体来说,它通过设定潜在特征的稀疏先验分布,使得大部分特征权重为0或接近于0,从而达到稀疏表示的目的。

这种稀疏表示不仅能降低计算复杂度,还能提高模型的泛化性能。

3. 稀疏贝叶斯方法的应用稀疏贝叶斯方法在各种机器学习任务中都有广泛的应用,包括文本分类、图像处理和信号处理等领域。

文本分类在文本分类问题中,稀疏贝叶斯方法可以用于词汇特征的选择和权重学习。

通过设定适当的稀疏先验分布,可以使得模型仅关注与分类相关的词汇特征,从而提高分类准确性和泛化能力。

图像处理在图像处理中,稀疏贝叶斯方法可以用于图像的压缩和恢复。

通过对图像进行稀疏表示,可以用较少的特征向量来表示图像,从而降低存储和传输的开销。

信号处理在信号处理领域,稀疏贝叶斯方法可以用于信号的稀疏表示和恢复。

通过设定适当的稀疏先验分布,可以对信号进行高效的表示和恢复,从而提高信号处理的效率。

4. 稀疏贝叶斯方法的优缺点稀疏贝叶斯方法具有以下优点: - 可以处理高维数据,降低计算和存储开销。

- 可以提高模型的泛化能力和准确性。

然而,稀疏贝叶斯方法也存在一些缺点: - 需要设定适当的稀疏先验分布,选择合适的先验分布是一项挑战。

- 对于非线性模型,稀疏贝叶斯方法可能无法得到令人满意的结果。

结论稀疏贝叶斯方法作为一种有效的机器学习技术,在处理高维数据问题时具有重要的应用价值。

基于稀疏贝叶斯学习的稳健STAP算法

基于稀疏贝叶斯学习的稳健STAP算法

两种失配同时存在的情况还需进一步探索。
∑ 针对上 述 问 题,本 文 提 出 一 种 基 于 稀 疏 贝 叶 斯 框
架[1920]的 稳 健 STAP (robustsparseBayesianlearning basedSTAP,RSBLSTAP)算法。RSBLSTAP 算 法 首 先 利用导向矢量的 Kronecker结构构建阵列幅相误差和格点 失配同时存在情况下的误差信号模型,然后利用贝叶斯推 断和最大期望(expectationmaximization,EM)算法 迭 [2125] 代求取角度 多普勒像、阵列误差参数以及格点失配参数, 最后利用求解参数计算精确的 CCM 和STAP权矢量。此 外,为了减小模型构建所增加的计算复杂度,本文还提出了 一种基于空域通道的自适应降维字典矩阵设计方法。仿真 实验证明了所提算法的正确性与有效性。
示 划
分必然会带来格点失配效应。为了解决这个问题,本文借鉴
文献[15]中的策略,给每一个离散化的空域通道犳狊,犻(犻=1, 2,…,犖狊)增加一个辅助原子。定义
式 疏
中角:度α狓犮=多=[普α犻1犖=勒,狊11,犼α像犖=犱21,,α2非犻,,犼…犜零狏,α元(犳犖狊犱素犖,犱犼表,]犳T狊示∈,犻)犆相+犖狊应狀犖犱格×=1点犜表犞^上示α犮存待+在求狀杂取
(5) 的稀 波分
量 空
时;犞^字典[狏矩(犳阵犱,1。,犳但狊,1是),杂狏(波犳犱在,2,空犳狊时,2)平,面…是,狏连(犳续犱,犖存犱 ,在犳犱的,犖狊,)离]表散
SRSTAP算法的CCM 估计精度。
其引入式(1),则实际接收信号模型 可 [1718] 以修正为
∑ 为了减小模型失配造成的影响,文献[12 16]对离散
化处理造成的格点失配现象进行了分析,提出局域化搜索 和非均匀划分的空时字典校准算法;文献[17 18]对由阵 元幅相误差造成的失配现象进行了分析,提出误差参数和

基于贝叶斯定理的数据稀疏表示与恢复研究

基于贝叶斯定理的数据稀疏表示与恢复研究

基于贝叶斯定理的数据稀疏表示与恢复研究随着科技的不断发展,数据科学已经成为了当今最为流行的领域之一。

而在数据科学领域中,数据稀疏表示与恢复技术可以说是一个非常重要而又有趣的研究方向。

近年来,基于贝叶斯定理的数据稀疏表示与恢复技术成为了研究的热点,本文旨在对这一领域进行探讨。

一、数据稀疏表示与恢复技术概述在数据科学领域中,数据稀疏表示指的是一种将高维数据表达为低维度表示的方法。

这种方法可以简化数据处理的过程,因为高维度数据在存储和计算上都会十分困难。

数据稀疏表示技术的一项重要任务是将稀疏信号从噪声之中恢复出来。

而恢复它的好处是可以帮助我们从噪声之中提取出有效的信息。

数据稀疏表示与恢复技术可以被广泛应用于数据压缩、图像处理、信号处理、模式识别、机器学习等众多领域。

这些领域中存在着大量的稀疏性,例如在自然图像或视频中,大量的元素都是无用的或者是无法提供有效信息的。

二、贝叶斯定理与数据稀疏表示贝叶斯定理是基于条件概率的一种数学方法,它能够帮助我们通过某些(已知或者假定的)条件概率来确定某些(未知的)概率。

在数据稀疏表示与恢复技术中,贝叶斯定理可以用来解决很多问题。

例如,它可以用来确定一个特定的向量在某个稀疏基中的系数值。

通过贝叶斯定理,我们可以使用先验概率分布来求出条件概率分布,这与统计学习中的贝叶斯估计是很相似的。

在某些数据稀疏表示问题中,我们需要确定一个稀疏表达式中向量中的系数值,而这样的问题就可以被看作是一种最优化问题,我们可以使用贝叶斯定理来求解该问题。

三、基于贝叶斯定理的数据稀疏表示与恢复算法基于贝叶斯定理的数据稀疏表示与恢复算法分为两个阶段:稀疏表示和恢复阶段。

在稀疏表示阶段,我们需要对原始数据进行稀疏编码,从而得到稀疏表示系数。

而在恢复阶段,我们则需要从稀疏表示中恢复出原始的数据。

下面我们介绍一些基于贝叶斯定理的数据稀疏表示与恢复算法。

1. FOCUSS算法FOCUSS算法是一种基于贝叶斯定理的数据稀疏表示与恢复算法。

压缩感知 稀疏贝叶斯算法

压缩感知 稀疏贝叶斯算法

压缩感知稀疏贝叶斯算法
压缩感知是一种信号处理方式,其基本思想是通过采集少量的信号样本,然后通过某种算法重构出原始信号。

稀疏贝叶斯算法是压缩感知中的一种重要方法,它利用贝叶斯估计理论来恢复稀疏信号。

压缩感知的基本模型可描述为:y = Ax + v,其中y为观测到的信号,A为M×N的感知矩阵,x为N×1维的待求信号,v为M×1维的噪声向量。

稀疏贝叶斯学习则是在压缩感知的基础上引入了贝叶斯估计理论,用于恢复稀疏信号。

具体来说,稀疏贝叶斯学习将信号建模为一个稀疏的概率图模型,然后通过贝叶斯公式来求解最优的信号值。

然而,传统的稀疏贝叶斯算法在存在噪声的情况下,其恢复效果可能不佳。

为了解决这个问题,研究者们提出了结合自适应稀疏表示和稀疏贝叶斯学习的压缩感知图像重建方法。

此外,还有研究者提出基于块稀疏贝叶斯学习的多任务压缩感知重构算法,该算法利用块稀疏的单测量矢量模型求解多任务重构问题。

这些改进的方法都在一定程度上提高了压缩感知的性能。

稀疏贝叶斯的原理

稀疏贝叶斯的原理

稀疏贝叶斯的原理稀疏贝叶斯的原理什么是稀疏贝叶斯?稀疏贝叶斯(Sparse Bayesian Learning,SBL)是一种用于生成模型的贝叶斯方法,用于解决高维数据建模问题。

稀疏贝叶斯通过引入稀疏性先验,可以有效地解决高维数据问题,并且能够自动地选择重要的特征,从而提高预测性能。

稀疏贝叶斯的原理1.贝叶斯方法贝叶斯方法是一种基于贝叶斯定理的统计推断方法,通过将观测数据和先验知识结合,来得到后验分布。

在贝叶斯方法中,模型参数被看作是随机变量,而不是固定的值。

2.稀疏性先验稀疏性先验是指先验概率密度函数中的超参数被赋予一定的模型稀疏性,从而使得生成的后验分布具有稀疏性。

稀疏性先验可以有效地压缩模型参数,选择重要的特征,并且可以缓解过拟合问题。

3.稀疏贝叶斯算法稀疏贝叶斯算法基于贝叶斯方法和稀疏性先验,通过最大化后验概率来估计模型参数。

在求解过程中,采用迭代算法逼近最优解,具体包括两个步骤:先对模型参数进行初始化,然后通过迭代更新模型参数,直到收敛。

4.利用稀疏特性选择重要特征稀疏贝叶斯通过引入稀疏性先验,可以自动地选择重要的特征。

在模型训练过程中,随着迭代的进行,模型参数中的一些特征会逐渐变得非零,而其他特征的系数则趋近于零。

这样,我们就可以根据模型参数的稀疏性来识别和选择重要的特征。

5.改进预测性能稀疏贝叶斯通过选择重要的特征和压缩模型参数,可以提高预测性能。

在高维数据建模问题中,往往存在大量冗余特征或者噪声特征,而稀疏贝叶斯可以通过自动选择重要特征,提高模型的泛化能力,并且可以避免过拟合问题。

小结稀疏贝叶斯是一种用于解决高维数据建模问题的贝叶斯方法。

通过引入稀疏性先验,稀疏贝叶斯可以自动选择重要的特征,提高预测性能,并且可以缓解过拟合问题。

稀疏贝叶斯算法通过迭代更新模型参数,逼近最优解。

在实际应用中,稀疏贝叶斯能够广泛应用于信号处理、模式识别等领域,成为一种强大的建模工具。

稀疏贝叶斯的应用1.信号处理稀疏贝叶斯在信号处理中有着广泛的应用。

稀疏贝叶斯的步骤

稀疏贝叶斯的步骤

稀疏贝叶斯的步骤介绍稀疏贝叶斯是一种基于贝叶斯理论的分类算法,通过学习训练集中的样本特征,进行监督学习任务。

本文将介绍稀疏贝叶斯的步骤及其应用。

贝叶斯理论在开始介绍稀疏贝叶斯之前,我们先回顾一下贝叶斯理论的基本概念。

贝叶斯理论是基于贝叶斯公式的推导而来,可以用于计算在已知数据条件下某一事件发生的概率。

贝叶斯公式如下所示:其中,P(A|B)表示在已知B发生的条件下A发生的概率,P(A)表示A发生的先验概率,P(B|A)表示在A发生的条件下B发生的概率,P(B)表示B发生的先验概率。

根据贝叶斯公式,我们可以根据已知条件,计算出某个事件的后验概率。

稀疏贝叶斯的步骤稀疏贝叶斯是一种在贝叶斯理论基础上发展而来的分类算法,其步骤如下:1. 数据预处理首先,我们需要对原始数据进行预处理,包括数据清洗和特征选择等工作。

数据清洗是为了去除噪声和异常值,保证数据的质量。

特征选择是为了从原始数据中选择出对分类任务具有较好区分度的特征,以减少模型的复杂度和计算时间。

2. 计算类别先验概率在稀疏贝叶斯中,我们需要计算每个类别的先验概率。

先验概率表示在没有任何证据的情况下,某个类别发生的概率。

可以通过计算训练集中每个类别的样本数量,并除以训练集的总样本数量来得到类别的先验概率。

3. 计算类别条件概率在计算类别条件概率时,我们需要估计每个特征在给定类别下的条件概率。

条件概率表示在已知类别的情况下,某个特征出现的概率。

可以使用极大似然估计或贝叶斯估计等方法来计算。

4. 特征选择特征选择在稀疏贝叶斯中扮演着重要的角色。

通过选择具有较高条件概率的特征,并结合先验概率,可以进一步提高分类模型的准确性和性能。

5. 类别判断在得到类别的先验概率和条件概率之后,我们可以利用贝叶斯公式计算后验概率,并判断待分类样本的类别。

具体而言,对于每个特征,我们计算其给定类别下的条件概率,并乘以先验概率,再除以总体概率的归一化系数,得到对应类别的后验概率。

一种快速稀疏贝叶斯学习的水声目标方位估计方法研究

一种快速稀疏贝叶斯学习的水声目标方位估计方法研究

一种快速稀疏贝叶斯学习的水声目标方位估计方法研究近年来,水声目标方位估计技术深入研究的重要性日益受到人们
的重视。

寻找快速、精准的贝叶斯学习算法,进一步提升水声目标方
位估计技术,成为当下学术界的研究热点。

随着技术的进步,一种快
速稀疏贝叶斯学习的水声目标方位估计方法研究也获得了广泛关注。

快速稀疏贝叶斯学习水声目标方位估计方法,依据建模对象实时
收集水声讯号数据,构建以 \mathcal P 概率函数为基础的混合模型,设计了一种收敛速度较快且有效保存稀疏特征结构信息的估计方法。

该方法采用 EM 算法进行参数估计,在小样本情况下,特指噪声参数
学习后且应用最大后验估计的结果,具有较高的估计精度。

此外,快速稀疏贝叶斯学习水声目标方位估计方法能够很好的避
免获取稀疏参数时出现维度灾难所带来的计算量大,同时维持与传统
贝叶斯学习方法簇性质较高的优势。

有竞争性学习的噪声参数调整来
优化贝叶斯模型,使之具有较高的精确度和更快的训练速率。

由于设
计的快速稀疏贝叶斯学习性能方法具有较快的计算速度与精确度,于
是广泛应用于各类复杂的水声目标定位的估计中。

综上所述,快速稀疏贝叶斯学习的水声目标方位估计方法是今日
水声定位中重要的研究技术,其特征有:基于模型、收敛速度快、参
数估计高效,有效防止出现维度灾难所带来的后果,为水声定位技术
的发展奠定了良好基础,可期待随着技术的进一步深入,会出现更多
改善性的研究成果。

贝叶斯算法简单介绍

贝叶斯算法简单介绍

贝叶斯算法简单介绍贝叶斯算法是一种基于统计学的算法,主要用于机器学习与人工智能领域中的分类问题。

该算法是在 18 世纪由英国数学家托马斯·贝叶斯发明的,因此得名贝叶斯算法。

在机器学习领域中,贝叶斯算法被用于解决分类问题。

分类问题就是将一个实例归类到已有类别中的某一个类别中,如将一条邮件归类为垃圾邮件或非垃圾邮件。

贝叶斯算法的基本思想是:给定一个分类问题和一组特征,通过求解特征的条件概率来得到每个类别的概率,从而将实例分到概率最大的那个类别中。

在贝叶斯算法中,最重要的是先验概率和后验概率。

先验概率是指在没有任何与特征相关的信息时,每个类别的概率。

例如,在分类汉字的问题中,让我们假设“大” 字比“小” 字常见,这样我们就可以认为“大” 字的先验概率比“小” 字的先验概率高。

后验概率是基于输入数据的特征,通过学习得出的概率。

例如,当给出一个汉字时,通过学习得出该字是“大” 字的后验概率。

通过计算先验概率和后验概率,就得到了分类问题的最终概率。

下面我们来看一个具体的例子,假设我们要通过贝叶斯算法判断一个邮箱中的邮件是否是垃圾邮件。

我们可以将邮件的内容和标题等相关特征看成先验概率,将垃圾邮件和非垃圾邮件看成后验概率,应用贝叶斯公式进行计算。

具体步骤如下:首先,我们需要收集一些已知类别的邮件数据,将其分为两个类别:垃圾邮件和非垃圾邮件。

然后,我们需要对每个单词进行分析,看它们与垃圾邮件和非垃圾邮件的关系。

例如,“买药”这个词汇就与垃圾邮件有强关系,而“会议”这个词汇就与非垃圾邮件有强关系。

接下来,我们将每个单词与它们在垃圾邮件和非垃圾邮件中的出现次数进行记录。

这个过程中,我们需要使用平滑处理的技巧,避免数据稀疏问题。

之后,通过贝叶斯公式,我们可以得到该邮件为垃圾邮件的概率,也可以得到非垃圾邮件的概率。

根据这些概率,我们可以将邮件进行分类,并进行后续的处理。

当然,贝叶斯算法并不仅仅适用于垃圾邮件分类问题,还可以应用于医学诊断、自然语言处理、金融风险管理等领域。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

稀疏贝叶斯学习(Sparse Bayesian Learning)张智林(Zhilin Zhang )z4zhang@Department of Electrical and Computer Engineering, University of California, San Diego,La Jolla, CA 92093-0407, USA1 引言稀疏贝叶斯学习(Sparse Bayesian Learning, SBL )最初作为一种机器学习算法由Tipping 于2001年前后提出[Tipping2001],随后被引入到稀疏信号恢复/压缩感知领域[Wipf2004,Ji2008]。

Wipf 和Rao 等人对SBL 进行了深入的理论研究。

与广泛使用的基于L1惩罚项的算法(比如Lasso ,Basis Pursuit )相比(以下简称L1算法),SBL 具有一系列显著的优势:(1)在无噪情况下,除非满足一些严格的条件[Donoho2003],L1算法的全局最小点(global minimum )并不是真正的最稀疏的解[Wipf2004]。

因此,在一些应用中,当真实的解是最稀疏的解,采用SBL 是更好的选择。

(2)当感知矩阵(sensing matrix )的列与列相关性很强时,L1算法的性能会变得非常差。

事实上不光是L1算法,绝大多数已知的压缩感知算法(比如Approximate Message Passing 算法,Matching Pursuit 算法)在这种情况下性能都会变得很差。

相比之下,SBL 算法仍旧具有良好的性能[Wipf_NIPS2011]。

因此,在雷达追踪,波达方向估计,脑源定位,特征提取,功率谱估计等一些列领域,SBL 都具备显著的优势。

(3)业已证明,SBL 算法等价于一种迭代加权L1最小化算法(iterative reweighted L1 minimization ),而L1算法仅仅只是其第一步[Wipf2010]。

Candes 等人指出,迭代加权L1最小化算法更易获得真正的最稀疏解[Candes2008]。

从这个角度也就不难理解SBL 的优越性。

(4)在很多实际问题中,所期望的稀疏解常常有一些结构,而利用这些结构可以获得更好的性能[ModelCS ]。

作为一种贝叶斯算法,SBL 算法对利用这些解的结构信息提供了更多的灵活性。

这种灵活性最主要来自于SBL 采用参数化的高斯分布为解的先验分布。

最近Zhang 和Rao 提出了块稀疏贝叶斯学习框架(Block Sparse Bayesian Learning, BSBL)[Zhang_IEEE2011, Zhang_TSP2012]。

该框架提供了一种利用解的空间结构(spatial structure )和时序结构(temporal structure )的解决方案。

由其框架得到的算法在多任务学习(multi-task learning )[Wan2012],生理信号的无线传输和远程监控[Zhang_TBME2012a, Zhang_TBME2012b ],脑源定位和脑-机接口[Zhang_PIEEE2012]等许多领域获得了极大的成功。

下面将首先介绍基本的SBL 框架,然后对BSBL 框架及其算法进行详细介绍,并在最后给出一些代表性的实验结果。

2稀疏贝叶斯学习压缩感知的基本模型可描述为:v Ax y += (1) 其中为N×M的感知矩阵,为N×1维压缩信号,为M维待求的解向量,为未知的噪声向量。

为求解,SBL 假设中的每个元素都服从一个参数化的均值为0方差为A y x v x x i γ的高斯分布[Wipf2004]:M i N x p i i i ,,1),,0();("==γγ (2)其中表示中的第i 个元素,i x x i γ是未知的参数,将会由算法自动估计出来。

这样一种先验分布常被称为automatic relevance 先验分布,最初出现于人工神经网络领域[ARD1996]。

在算法运行中,绝大部分的i γ将会变成0(无噪情况下)或者趋于0(有噪情况下)。

SBL 通常会采用一个阈值将趋近于0的i γ置为0(该阈值的大小通常和信噪比有关)。

当0=i γ时,相应的则为0。

因此,i x i γ与解的稀疏程度密切相关,也从而决定了i γ的学习规则是SBL 算法中最核心的部分。

在SBL 框架中,噪声通常假设为高斯白噪声向量,即v ),,0();(I v λλN p =其中λ为噪声方差。

根据以上的假设,利用贝叶斯规则很容易获得后验分布,其也为一高斯分布。

当所有的未知参数(即{}λγ,1Mi i =)都被估计出来后,x 的最大后验估计(Maximum A Posterior)由这个高斯分布的均值给出。

而这些未知参数可以由第二类最大似然估计(Type II Maximum Likelihood)获得[Tipping2001, MacKay1992]。

在以上的SBL 框架中,我们把i γ作为一未知的确定性参数,而没有把它视为一随机变量从而进一步假设它的先验分布。

事实上,这等同于假设i γ的先验分布是一个non-informative prior 。

Wipf 和Rao 已从理论上证明,这种SBL 框架可以获得真正的解(即最稀疏的解)[Wipf2004],而若对i γ赋予一个非non-informative prior ,有可能导致算法的不稳定或者解的不正确[Wipf_PhDThesis ]。

另外也需注意到,Tipping 提出的SBL 算法[Tipping2001]是假定的precision (即方差的倒数)具有一参数化的Gamma prior ,而这些参数最终被固定为某些特殊的值使得具有一improper prior ,即i x i x i i x x p 1)(∝。

这种prior 类似于Laplace prior ,起着促进稀疏解的作用。

通过比较Wipf 和Rao 的SBL 算法和Tipping 的算法,我们不难发现,前者的SBL 算法恰好是后者的SBL 算法取该improper prior 的形式。

从这个角度也不难理解为什么前者的SBL 算法可以获得稀疏解。

除了Tipping,Wipf 等人的SBL 算法外,还有其它一些SBL 算法赋予的precision 其它的分布,或者假设的先验分布为一Laplace prior[BCSlaplace ]。

这些算法多数情况下无法证明其全局解是真正稀疏解(即最稀疏解),或者本身稳定性存在问题,不能保证良好的收敛性能。

值得注意的是,赋予不同的先验分布并不能导致相应的SBL 算法在实际应用中具有明显的优势。

这是因为大多数实际问题都和理想的感知压缩模型相去甚远,比如感知矩阵(sensing matrix)的列与列之间具有强相关性,噪声很强,并不是非常稀疏等等。

在这些情况下,不少参数的估计将会有较大的误差,从而导致最终的解具有较大的误差。

最明显的是,绝大多数SBL 算法对噪声方差i x i x i x x λ的估计都不有效,尤其是当感知矩阵的列与列之间具有强相关性且噪声很大的时候。

而对该方差估计的准确性对x 的估计的准确性影响非常大。

Zhang 和Rao 最近给出了噪声方差的另外一个学习规则[Zhang_IEEE2011]。

试验表明该学习规则可以获得更加鲁棒的效果。

事实上要想在实际中获得更好的结果,充分利用解的自身结构信息是更加有效的策略。

接下来我们将介绍利用解的空间结构信息和时序结构信息的SBL 算法。

特别的,我们将介绍如何利用解的各个元素之间的相关性来提升算法的性能。

3利用解的结构信息的稀疏贝叶斯学习3.1 解的空间信息和块稀疏贝叶斯学习解的空间信息是指在模型(1)中解向量具有某些结构。

最常见的结构是块结构(block structure ),或称为组群结构(group structure )[groupLasso, ModelCS, Eldar2010BSS ],即x (3)T d d d T g g g T x x x x ],,,,,,[11111 """x x x +−=基于这个块划分的基本压缩感知模型(即公式(1)(3))称为块稀疏模型(Block Sparse Model )。

在这个模型中,解向量x 可以划分为g 个块结构(每个块结构包含的元素有多有少),而x 的非零的元素则聚集在少数几个块内。

基于这个模型,目前已经有了不少算法,比如Group Lasso [groupLasso ], Block-OMP[Eldar2010BSS ], Block-CoSaMP [ModelCS ]等等。

遗憾的是,很少有算法考虑每个块内的元素之间的相关性(幅值的相关性)。

为方便,以下我们称该相关性为块内相关性(Intra-Block Correlation)。

块内相关性之所以还没有引起重视,是因为在大多数情况下目前已有的算法并没有显示出其性能受到该相关性的影响。

块内相关性对算法性能的影响直到最近才被Zhang和Rao通过提出块稀疏贝叶斯学习(Block Sparse Bayesian Learning, BSBL)而发现[Zhang_TSP2012],并被成功的运用到非稀疏生理信号的无线传输[Zhang_TBME2012a, Zhang_TBME2012b ]。

在BSBL中,每一个块被假设为满足一多元高斯分布:i x ),()(i i i N p B 0x γ= (3) 其中为一未知的正定矩阵,用于对该块内的元素之间的相关结构进行建模,而i B i γ为一未知的参数,用于决定该块是否为。

类似于基本的SBL 框架,当00=i γ,相应的块0x =i 。

这样的prior 可以认为是一种结构化的Automatic Relevance Prior 。

由于automatic relevance determination(ARD)机制,在算法学习过程中大多数i γ最终为0或者趋近于0,从而促成了解的块稀疏性(Block Sparsity)。

同样,假设噪声服从),();(I 0v λλN p =。

这样我们可以利用贝叶斯规则得到x 的后验分布。

利用第二类最大似然估计可以估计出各种参数,从而最终得到x 的最大后验估计值。

Zhang 和Rao 证明[Zhang_IEEE2011],在无噪情况下BSBL 的全局解即是真正的最稀疏解;而无论的值是多少都不影响这一结论。

事实上,的值仅仅只影响算法的局部解的性质,即算法收敛到局部解的概率。

这一结论带来了极大的好处,那就是我们可以灵活采用一些策略来规范化(regularize )的估计从而克服overfitting ,而无须担忧是否会影响到算法的全局解的性质。

相关文档
最新文档