稀疏贝叶斯学习(SparseBayesianLearning)
基于压缩感知的数据压缩与检测_

s arg min{|| y s ||2 2 || s ||1 }
s
(6)
2.贝叶斯模型
应用贝叶斯模型 [4,5] 对信号重构过程被视为是 一种线性回归的问题[6]。主要分为两个阶段:第一 阶段是所有的未知数被认为是服从指定分布的随 机量[7]。在有噪的观测模型中通常假设噪声是服从 独立的均值为 0 方差为 的高斯分布,可以记为:
(13) 注意上式进行了 2b 使的改写,把概率论中著 名的恒等式,应用到本文中可得 s 的后验概率:
i
exp( si )
y x n
Hale Waihona Puke (5) 利用拉式定理可以改写上式的重构公式为:
p(s / y, ,2) p(y / s,2) p(s / )/ p(y / ,2)
p(s / )
RL , M LN
N (s
i 1
N
i
/ 0, i )
在无线传感网络中 被认为是路由选择矩阵, 每一行最多有一个元素为 1,每一列也最多有一个 元素为 1 且最多有 L 列非 0。最后可得:
y ( k ) x ( k ) s ( k ) s ( k ) ( 3)
知网络研究的首要问题。应用近年来形成的压缩感 知技术就是一种有效途径,压缩感知技术[1]在国内 外许多领域都得到了广泛的应用并取得了很显著 的效果。在信号的重构方面,相对于常用的贪婪追 踪重构算法实现点的估计,本文借助贝叶斯模型得 到整体数据后验概率的分布。在有噪声条件下,BP 和 OMP【2】等方法都不能很好的重构原来信号,但 贝叶斯模型[3]就可以。并且通过大量实验表明选择 合适的反馈系数控制采集数据的维数可以在保证 允许误差的前提下尽量减少测量次数降低成本提
稀疏贝叶斯重构算法代码

稀疏贝叶斯重构算法代码稀疏贝叶斯重构算法是一种用于数据处理和特征选择的强大工具。
本文将详细介绍稀疏贝叶斯重构算法的原理、应用以及实现代码。
稀疏贝叶斯重构算法是基于贝叶斯理论和稀疏表示原理的一种数据处理方法。
其主要目标是从高维数据中识别并选择出最重要的特征,以便更好地理解和分析数据。
在算法实现的过程中,首先需要构建一个稀疏贝叶斯模型。
该模型通过先验知识和样本数据来估计数据的分布,并通过最大后验概率推断出未观测到的特征。
算法会在推断过程中自动选择出最具有代表性的特征,并将其他特征设置为零。
接下来,需要进行数据的重构和特征选择。
算法会利用贝叶斯推断得到的稀疏表示结果来重构原始数据,并且会根据重构误差来确定特征的重要性。
重构误差越大,表明该特征对于数据的重构和理解越重要。
最后,通过设置一个阈值来选择出最重要的特征。
根据阈值选取的结果,我们可以得到一个经过特征选择的稀疏贝叶斯模型,并且可以使用该模型进行数据预测和分析。
下面是一个示例代码,展示了稀疏贝叶斯重构算法的基本实现过程:```pythonimport numpy as npfrom sklearn.decomposition import SparseCoder 构建稀疏贝叶斯模型def build_sparse_bayesian_model(data):coder = SparseCoder(dictionary=data)return coder数据重构和特征选择def data_reconstruction(data, coder):recon_data = coder.transform(data)return recon_data特征选择def feature_selection(data, threshold):importance = np.mean(np.abs(data), axis=0) selected_features = importance > threshold return selected_features示例使用if __name__ == "__main__":# 读取数据data = np.loadtxt('data.txt')# 构建稀疏贝叶斯模型coder = build_sparse_bayesian_model(data)# 数据重构和特征选择recon_data = data_reconstruction(data, coder)selected_features = feature_selection(recon_data, 0.1) # 输出结果print("重要特征:", selected_features)```通过以上代码,我们可以利用稀疏贝叶斯重构算法,并根据设定的阈值来选择出最重要的特征。
基于贝叶斯定理的数据稀疏表示与恢复研究

基于贝叶斯定理的数据稀疏表示与恢复研究随着科技的不断发展,数据科学已经成为了当今最为流行的领域之一。
而在数据科学领域中,数据稀疏表示与恢复技术可以说是一个非常重要而又有趣的研究方向。
近年来,基于贝叶斯定理的数据稀疏表示与恢复技术成为了研究的热点,本文旨在对这一领域进行探讨。
一、数据稀疏表示与恢复技术概述在数据科学领域中,数据稀疏表示指的是一种将高维数据表达为低维度表示的方法。
这种方法可以简化数据处理的过程,因为高维度数据在存储和计算上都会十分困难。
数据稀疏表示技术的一项重要任务是将稀疏信号从噪声之中恢复出来。
而恢复它的好处是可以帮助我们从噪声之中提取出有效的信息。
数据稀疏表示与恢复技术可以被广泛应用于数据压缩、图像处理、信号处理、模式识别、机器学习等众多领域。
这些领域中存在着大量的稀疏性,例如在自然图像或视频中,大量的元素都是无用的或者是无法提供有效信息的。
二、贝叶斯定理与数据稀疏表示贝叶斯定理是基于条件概率的一种数学方法,它能够帮助我们通过某些(已知或者假定的)条件概率来确定某些(未知的)概率。
在数据稀疏表示与恢复技术中,贝叶斯定理可以用来解决很多问题。
例如,它可以用来确定一个特定的向量在某个稀疏基中的系数值。
通过贝叶斯定理,我们可以使用先验概率分布来求出条件概率分布,这与统计学习中的贝叶斯估计是很相似的。
在某些数据稀疏表示问题中,我们需要确定一个稀疏表达式中向量中的系数值,而这样的问题就可以被看作是一种最优化问题,我们可以使用贝叶斯定理来求解该问题。
三、基于贝叶斯定理的数据稀疏表示与恢复算法基于贝叶斯定理的数据稀疏表示与恢复算法分为两个阶段:稀疏表示和恢复阶段。
在稀疏表示阶段,我们需要对原始数据进行稀疏编码,从而得到稀疏表示系数。
而在恢复阶段,我们则需要从稀疏表示中恢复出原始的数据。
下面我们介绍一些基于贝叶斯定理的数据稀疏表示与恢复算法。
1. FOCUSS算法FOCUSS算法是一种基于贝叶斯定理的数据稀疏表示与恢复算法。
基于SBL算法的大间隔非等间距阵DOA估计技术

2020年第 3 期 声学与电子工程 总第 139 期基于SBL算法的大间隔非等间距阵 DOA 估计技术罗光成1 杜马千里 1 茆琳 2 李智忠3(1.91001部队,北京,100036;2.92196部队,青岛,262100)(3.海军潜艇学院,青岛,262199)摘要 针对大间隔非等间距阵DOA估计的栅瓣模糊虚警问题,基于空域稀疏信号重构原理,提出基于稀疏贝叶斯学习器(Sparse Bayesian Learning,SBL)算法的大间隔非等间距阵 DOA 估计技术。
将稀疏贝叶斯学习算法应用到大间距阵DOA估计中,提升空间谱估计器的栅瓣抑制能力。
仿真和海试数据性能验证结果表明,与常规方法相比,SBL算法具有更佳的 DOA 估计能力。
关键词大间隔非等间距阵;栅瓣抑制;稀疏重构;稀疏贝叶斯学习大间隔非等间距阵DOA估计技术可应用在以下场景中:多个声呐浮标节点组合成阵探测,水下固定式声呐在同样范围内使用尽可能少的阵元以降低成本或部分阵元损坏等。
当阵元间距与所要探测信号的波长不满足空间奈奎斯特采样定律,即阵元间距大于二分之一波长时(定义为大间隔),经典的基于二次型的波束搜索算法,如CBF、MVDR等易出现栅瓣虚警现象,因而大间隔非等间距阵DOA估计技术需具备栅瓣抑制能力。
作为新的采样理论,压缩感知(或者压缩采样)可通过开发信号的稀疏特性,在远小于Nyquist采样率的条件下,用随机采样获取信号的离散样本,然后通过非线性重建算法完美地重建信号[1]。
基于这一思想,本文拟利用稀疏空域信号重构方法开展大间隔不等间距阵的DOA估计技术研究。
稀疏信号重构技术近些年来得到快速发展,并被广泛应用到各个领域,包括图像重建与恢复、小波降噪、雷达成像、声呐目标定位等[2-5],在频谱估计和阵列处理的背景下也出现了一些新的算法,包括l1范数最小化[6]、匹配追踪[7]、凸优化方法[8]等。
比较经典的是Gorodnitsky等人利用迭代最小范数加权称为FOCUSS进行DOA 估计[9],后来Chen提出了基于追踪准则的稀疏信号估计方法 (Basis Pursuit Denoising ,BPDN) [10],通过最小化空间信号的l1范数进行稀疏性约束,结合噪声功率限制的阵列数据的稀疏重构拟合约束,利用凸优化工具获得稀疏的DOA信号估计结果。
稀疏贝叶斯重构算法代码

稀疏贝叶斯重构算法简介稀疏贝叶斯重构算法是一种基于贝叶斯统计理论的数据重构方法。
通过利用稀疏性先验知识,该算法能够从高维度的原始数据中提取出有用的特征,并进行数据重构和降维处理。
在机器学习和模式识别领域,稀疏贝叶斯重构算法被广泛应用于特征选择、图像处理、信号处理等任务中。
贝叶斯统计理论在深入了解稀疏贝叶斯重构算法之前,我们需要先了解一下贝叶斯统计理论的基本概念。
贝叶斯统计理论是一种基于概率的统计推断方法。
它通过将先验知识和观测数据结合起来,更新对参数或模型的推断。
在贝叶斯统计中,我们首先给定一个先验分布来描述对未知参数的不确定性,然后通过观测数据来更新这个分布,得到后验分布。
稀疏性先验知识稀疏性先验知识是指对待重构数据的特征进行约束,使得其具有稀疏性。
在实际问题中,我们常常希望从高维度的数据中提取出有用的特征,而忽略那些对重构结果影响不大的特征。
稀疏性先验知识可以通过引入L1正则化项来实现。
L1正则化项将参数的绝对值作为惩罚项加入到目标函数中,从而促使模型选择较少的特征。
在稀疏贝叶斯重构算法中,我们利用稀疏性先验知识来约束待重构数据的特征,并通过贝叶斯推断来估计参数。
稀疏贝叶斯重构算法步骤稀疏贝叶斯重构算法主要包括以下几个步骤:1.数据预处理:对原始数据进行预处理,包括数据清洗、归一化等操作。
2.特征选择:利用L1正则化项进行特征选择,筛选出与目标变量相关性较高的特征。
3.模型训练:使用稀疏贝叶斯模型进行训练,估计参数并得到后验分布。
4.数据重构:根据得到的后验分布对待重构数据进行重构操作。
5.降维处理:将重构后的数据进行降维处理,保留主要特征并减少数据维度。
6.模型评估:对重构和降维后的数据进行性能评估,包括准确率、召回率等指标。
算法示例下面是一个简单的稀疏贝叶斯重构算法示例:import numpy as npfrom sklearn.decomposition import SparseCoder# 数据预处理def preprocess_data(data):# 数据清洗操作...# 归一化操作...return processed_data# 特征选择def feature_selection(data, labels):# 利用L1正则化项进行特征选择...selected_features = selected_indicesreturn selected_features# 模型训练def train_model(data, labels, selected_features):# 使用稀疏贝叶斯模型进行训练...model = SparseCoder()model.fit(data[:, selected_features])return model# 数据重构def reconstruct_data(model, data, selected_features):# 根据得到的后验分布对待重构数据进行重构操作...reconstructed_data = model.transform(data[:, selected_features]) return reconstructed_data# 降维处理def reduce_dimension(reconstructed_data):# 进行降维处理...reduced_data = np.dot(reconstructed_data, principal_components) return reduced_data# 模型评估def evaluate_model(reduced_data, labels):# 对重构和降维后的数据进行性能评估...accuracy = compute_accuracy(reduced_data, labels)recall = compute_recall(reduced_data, labels)return accuracy, recall# 主程序def main():# 读取原始数据...data, labels = read_data()# 数据预处理processed_data = preprocess_data(data)# 特征选择selected_features = feature_selection(processed_data, labels)# 模型训练model = train_model(processed_data, labels, selected_features)# 数据重构reconstructed_data = reconstruct_data(model, processed_data, selected_feat ures)# 降维处理reduced_data = reduce_dimension(reconstructed_data)# 模型评估accuracy, recall = evaluate_model(reduced_data, labels)# 执行主程序if __name__ == "__main__":main()总结稀疏贝叶斯重构算法是一种基于贝叶斯统计理论的数据重构方法,通过引入稀疏性先验知识来约束待重构数据的特征。
基于压缩感知的数据压缩与检测

基于压缩感知的数据压缩与检测李燕;王博【期刊名称】《计算机技术与发展》【年(卷),期】2014(000)003【摘要】在无线传感器网络( WSN)中,以往都是采用奈奎斯特技术对信号进行采样并重构,而随着信号频率的增加,应用奈奎斯特技术会使成本大幅度的增加,这是人们所不乐见的。
针对这一问题,近年来出现一种新的技术即压缩感知技术,它能利用更少的数据和合适的重构方法得到更精确的原始信号。
将稀疏贝叶斯学习( SBL)和压缩感知联合起来,形成了一种在有噪声的情况下更好重建可压缩信号的方法,并进一步将这种方法应用在WSN中,可以在误差允许的范围内有效控制测量数据的维数,在保证一定误差的同时还减少了成本,提高了算法的效率。
%In wireless sensor networks,signal is sampled and reconstructed using the technology of Nyquist in the past. But it requires a substantial increase in the cost with the growth of the signal frequency,which is that people do not like to see. Recently a new technology is emerged,which is called compressive sensing technology. Compressive sensing can use less data and appropriate reconstruction method to get a more accurate original signal. Put Sparse Bayesian Learning ( SBL) and compressive sensing together to form a better way of re-constructing compressible signal under the noise. This method can effectively control the dimension of measurement data within the range of allowed error in WSN,so you canensure a certain degree of error while reducing the cost,improving the efficiency of the algorithm.【总页数】4页(P198-201)【作者】李燕;王博【作者单位】南京邮电大学通信与信息工程学院,江苏南京210003;南京邮电大学通信与信息工程学院,江苏南京210003【正文语种】中文【中图分类】TN91【相关文献】1.基于压缩感知的异步电动机故障诊断数据压缩与重构 [J], 刘建林2.基于压缩感知的脑电信号数据压缩 [J], 陈才;杜玉晓3.基于切换字典的林区小气候监测数据压缩感知方法 [J], 郑一力; 赵玥; 赵燕东; 谢辉平4.基于分布式压缩感知和边缘计算的配电网电能质量数据压缩存储方法 [J], 王鹤;李石强;于华楠;张健5.基于压缩感知理论的配电网数据压缩模型 [J], 陆亦齐;卞心怡因版权原因,仅展示原文概要,查看原文内容请购买。
基于贝叶斯压缩感知的毫米波MIMO信道估计

基于贝叶斯压缩感知的毫米波MIMO信道估计吴贇;王萍【摘要】In the millimeter wave multiple input multipleoutput(MIMO)communication system, obtaining the complete channel state information can make the system reach the maximum communication capacity.In this paper, a Sparse BayesianLearning(CTSBL)channel estimation method based on MMV model was proposed by using the sparse features of the angular domain of millimeter wave channels.The sparse and compressive sensing block was introduced by using the same sparse structure of the channel's real and imaginary components.Then the millimeter-wave channel estimation performance was improved by combining the time-domain correlation between multi-measurement channels and the iterative update algorithm of hyper parameter.The theoretical analysis and experimental simulation results showed that the proposed MIMO channel estimation method based on CTSBL millimeter wave had higher estimation accuracy than traditional greedy algorithm block orthogonal matching pursuit(BOMP)channel estimation.%毫米波多输入多输出(MIMO)通信系统中,获取完整的信道状态信息可使系统达到最大通信容量.利用毫米波信道的角度域稀疏特性,提出一种基于MMV模型的稀疏贝叶斯学习的(CTSBL)信道估计方法.运用信道虚实分量具有相同的稀疏结构,引入块稀疏压缩感知框架,再结合多测量信道间的时域相关性,以及超参数迭代更新算法,使毫米波信道估计性能得到了提升.算法理论分析和实验仿真结果表明,提出的CTSBL毫米波MIMO信道估计方法比传统的贪婪算法块正交匹配追踪(BOMP)信道估计方法具有更高的估计精度.【期刊名称】《计算机应用与软件》【年(卷),期】2018(035)002【总页数】5页(P126-129,182)【关键词】毫米波;MIMO;稀疏贝叶斯学习;多测量矢量模型【作者】吴贇;王萍【作者单位】数字化纺织服装技术教育部工程研究中心上海 201620;东华大学信息科学与技术学院上海 201620【正文语种】中文【中图分类】TP9190 引言毫米波高频段具有极宽的带宽、良好的指向性与多输入多输出MIMO的结合为实现高速率通信提供了保障。
基于稀疏贝叶斯极限学习机算法的股票价格预测

基于稀疏贝叶斯极限学习机算法的股票价格预测熊炳忠【期刊名称】《嘉兴学院学报》【年(卷),期】2018(030)005【摘要】股票价格模型是金融理论分析与实证分析的重要基础,学术界与金融业界对其建模预测一直保持着极大的兴趣,但由于股票价格表现出高噪声性、强非线性、随机分形结构以及长记忆效应等特点,需要融合优化算法、统计学习方法与金融学理论对其建模分析.基于传统方法的股票价格过程建模预测结果往往精度不够好,所建立的模型泛化能力较差.基于稀疏贝叶斯极限学习机 ( SBELM) 方法对股票价格进行建模预测, SBELM既能保持传统极限学习机 ( ELM) 算法训练过程简捷的优点,又具有稀疏贝叶斯学习机自动选择隐藏层节点数的优点.利用上证综合指数2014-2015年的市场数据,比较基于SBELM方法的建模预测与基于贝叶斯极限学习机( BLEM)、 ELM 以及 BP 神经网络学习算法的建模预测,结果表明,基于SBELM方法的市场指数模型预测精度最高、泛化能力最强,具有较好的应用价值.【总页数】8页(P106-113)【作者】熊炳忠【作者单位】嘉兴学院南湖学院,浙江嘉兴314001【正文语种】中文【中图分类】F830.91【相关文献】1.基于稀疏性贝叶斯极限学习机的气动调节阀多类故障诊断 [J], 谈斐祺;谢磊;王挺任2.混合动力汽车电池内部状态预测的贝叶斯极限学习机方法 [J], 王琪;孙玉坤;倪福银;陈泰洪;陈连玉;罗印升3.基于极限学习机的股票价格预测 [J], 廖洪一;王欣4.基于在线核极限学习机的股票价格预测模型 [J], 陈海英;刘洋5.基于稀疏贝叶斯-RNAMBO算法的低剂量CT盲复原方法 [J], 刘晓培;滕建辅;费腾;孙云山因版权原因,仅展示原文概要,查看原文内容请购买。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
稀疏贝叶斯学习(Sparse Bayesian Learning)张智林(Zhilin Zhang )z4zhang@Department of Electrical and Computer Engineering, University of California, San Diego,La Jolla, CA 92093-0407, USA1 引言稀疏贝叶斯学习(Sparse Bayesian Learning, SBL )最初作为一种机器学习算法由Tipping 于2001年前后提出[Tipping2001],随后被引入到稀疏信号恢复/压缩感知领域[Wipf2004,Ji2008]。
Wipf 和Rao 等人对SBL 进行了深入的理论研究。
与广泛使用的基于L1惩罚项的算法(比如Lasso ,Basis Pursuit )相比(以下简称L1算法),SBL 具有一系列显著的优势:(1)在无噪情况下,除非满足一些严格的条件[Donoho2003],L1算法的全局最小点(global minimum )并不是真正的最稀疏的解[Wipf2004]。
因此,在一些应用中,当真实的解是最稀疏的解,采用SBL 是更好的选择。
(2)当感知矩阵(sensing matrix )的列与列相关性很强时,L1算法的性能会变得非常差。
事实上不光是L1算法,绝大多数已知的压缩感知算法(比如Approximate Message Passing 算法,Matching Pursuit 算法)在这种情况下性能都会变得很差。
相比之下,SBL 算法仍旧具有良好的性能[Wipf_NIPS2011]。
因此,在雷达追踪,波达方向估计,脑源定位,特征提取,功率谱估计等一些列领域,SBL 都具备显著的优势。
(3)业已证明,SBL 算法等价于一种迭代加权L1最小化算法(iterative reweighted L1 minimization ),而L1算法仅仅只是其第一步[Wipf2010]。
Candes 等人指出,迭代加权L1最小化算法更易获得真正的最稀疏解[Candes2008]。
从这个角度也就不难理解SBL 的优越性。
(4)在很多实际问题中,所期望的稀疏解常常有一些结构,而利用这些结构可以获得更好的性能[ModelCS ]。
作为一种贝叶斯算法,SBL 算法对利用这些解的结构信息提供了更多的灵活性。
这种灵活性最主要来自于SBL 采用参数化的高斯分布为解的先验分布。
最近Zhang 和Rao 提出了块稀疏贝叶斯学习框架(Block Sparse Bayesian Learning, BSBL)[Zhang_IEEE2011, Zhang_TSP2012]。
该框架提供了一种利用解的空间结构(spatial structure )和时序结构(temporal structure )的解决方案。
由其框架得到的算法在多任务学习(multi-task learning )[Wan2012],生理信号的无线传输和远程监控[Zhang_TBME2012a, Zhang_TBME2012b ],脑源定位和脑-机接口[Zhang_PIEEE2012]等许多领域获得了极大的成功。
下面将首先介绍基本的SBL 框架,然后对BSBL 框架及其算法进行详细介绍,并在最后给出一些代表性的实验结果。
2稀疏贝叶斯学习压缩感知的基本模型可描述为:v Ax y += (1) 其中为N×M的感知矩阵,为N×1维压缩信号,为M维待求的解向量,为未知的噪声向量。
为求解,SBL 假设中的每个元素都服从一个参数化的均值为0方差为A y x v x x i γ的高斯分布[Wipf2004]:M i N x p i i i ,,1),,0();("==γγ (2)其中表示中的第i 个元素,i x x i γ是未知的参数,将会由算法自动估计出来。
这样一种先验分布常被称为automatic relevance 先验分布,最初出现于人工神经网络领域[ARD1996]。
在算法运行中,绝大部分的i γ将会变成0(无噪情况下)或者趋于0(有噪情况下)。
SBL 通常会采用一个阈值将趋近于0的i γ置为0(该阈值的大小通常和信噪比有关)。
当0=i γ时,相应的则为0。
因此,i x i γ与解的稀疏程度密切相关,也从而决定了i γ的学习规则是SBL 算法中最核心的部分。
在SBL 框架中,噪声通常假设为高斯白噪声向量,即v ),,0();(I v λλN p =其中λ为噪声方差。
根据以上的假设,利用贝叶斯规则很容易获得后验分布,其也为一高斯分布。
当所有的未知参数(即{}λγ,1Mi i =)都被估计出来后,x 的最大后验估计(Maximum A Posterior)由这个高斯分布的均值给出。
而这些未知参数可以由第二类最大似然估计(Type II Maximum Likelihood)获得[Tipping2001, MacKay1992]。
在以上的SBL 框架中,我们把i γ作为一未知的确定性参数,而没有把它视为一随机变量从而进一步假设它的先验分布。
事实上,这等同于假设i γ的先验分布是一个non-informative prior 。
Wipf 和Rao 已从理论上证明,这种SBL 框架可以获得真正的解(即最稀疏的解)[Wipf2004],而若对i γ赋予一个非non-informative prior ,有可能导致算法的不稳定或者解的不正确[Wipf_PhDThesis ]。
另外也需注意到,Tipping 提出的SBL 算法[Tipping2001]是假定的precision (即方差的倒数)具有一参数化的Gamma prior ,而这些参数最终被固定为某些特殊的值使得具有一improper prior ,即i x i x i i x x p 1)(∝。
这种prior 类似于Laplace prior ,起着促进稀疏解的作用。
通过比较Wipf 和Rao 的SBL 算法和Tipping 的算法,我们不难发现,前者的SBL 算法恰好是后者的SBL 算法取该improper prior 的形式。
从这个角度也不难理解为什么前者的SBL 算法可以获得稀疏解。
除了Tipping,Wipf 等人的SBL 算法外,还有其它一些SBL 算法赋予的precision 其它的分布,或者假设的先验分布为一Laplace prior[BCSlaplace ]。
这些算法多数情况下无法证明其全局解是真正稀疏解(即最稀疏解),或者本身稳定性存在问题,不能保证良好的收敛性能。
值得注意的是,赋予不同的先验分布并不能导致相应的SBL 算法在实际应用中具有明显的优势。
这是因为大多数实际问题都和理想的感知压缩模型相去甚远,比如感知矩阵(sensing matrix)的列与列之间具有强相关性,噪声很强,并不是非常稀疏等等。
在这些情况下,不少参数的估计将会有较大的误差,从而导致最终的解具有较大的误差。
最明显的是,绝大多数SBL 算法对噪声方差i x i x i x x λ的估计都不有效,尤其是当感知矩阵的列与列之间具有强相关性且噪声很大的时候。
而对该方差估计的准确性对x 的估计的准确性影响非常大。
Zhang 和Rao 最近给出了噪声方差的另外一个学习规则[Zhang_IEEE2011]。
试验表明该学习规则可以获得更加鲁棒的效果。
事实上要想在实际中获得更好的结果,充分利用解的自身结构信息是更加有效的策略。
接下来我们将介绍利用解的空间结构信息和时序结构信息的SBL 算法。
特别的,我们将介绍如何利用解的各个元素之间的相关性来提升算法的性能。
3利用解的结构信息的稀疏贝叶斯学习3.1 解的空间信息和块稀疏贝叶斯学习解的空间信息是指在模型(1)中解向量具有某些结构。
最常见的结构是块结构(block structure ),或称为组群结构(group structure )[groupLasso, ModelCS, Eldar2010BSS ],即x (3)T d d d T g g g T x x x x ],,,,,,[11111 """x x x +−=基于这个块划分的基本压缩感知模型(即公式(1)(3))称为块稀疏模型(Block Sparse Model )。
在这个模型中,解向量x 可以划分为g 个块结构(每个块结构包含的元素有多有少),而x 的非零的元素则聚集在少数几个块内。
基于这个模型,目前已经有了不少算法,比如Group Lasso [groupLasso ], Block-OMP[Eldar2010BSS ], Block-CoSaMP [ModelCS ]等等。
遗憾的是,很少有算法考虑每个块内的元素之间的相关性(幅值的相关性)。
为方便,以下我们称该相关性为块内相关性(Intra-Block Correlation)。
块内相关性之所以还没有引起重视,是因为在大多数情况下目前已有的算法并没有显示出其性能受到该相关性的影响。
块内相关性对算法性能的影响直到最近才被Zhang和Rao通过提出块稀疏贝叶斯学习(Block Sparse Bayesian Learning, BSBL)而发现[Zhang_TSP2012],并被成功的运用到非稀疏生理信号的无线传输[Zhang_TBME2012a, Zhang_TBME2012b ]。
在BSBL中,每一个块被假设为满足一多元高斯分布:i x ),()(i i i N p B 0x γ= (3) 其中为一未知的正定矩阵,用于对该块内的元素之间的相关结构进行建模,而i B i γ为一未知的参数,用于决定该块是否为。
类似于基本的SBL 框架,当00=i γ,相应的块0x =i 。
这样的prior 可以认为是一种结构化的Automatic Relevance Prior 。
由于automatic relevance determination(ARD)机制,在算法学习过程中大多数i γ最终为0或者趋近于0,从而促成了解的块稀疏性(Block Sparsity)。
同样,假设噪声服从),();(I 0v λλN p =。
这样我们可以利用贝叶斯规则得到x 的后验分布。
利用第二类最大似然估计可以估计出各种参数,从而最终得到x 的最大后验估计值。
Zhang 和Rao 证明[Zhang_IEEE2011],在无噪情况下BSBL 的全局解即是真正的最稀疏解;而无论的值是多少都不影响这一结论。
事实上,的值仅仅只影响算法的局部解的性质,即算法收敛到局部解的概率。
这一结论带来了极大的好处,那就是我们可以灵活采用一些策略来规范化(regularize )的估计从而克服overfitting ,而无须担忧是否会影响到算法的全局解的性质。