一篇科普压缩感知的blog(by_Terrence_Tao)

一篇科普压缩感知的blog(by_Terrence_Tao)
一篇科普压缩感知的blog(by_Terrence_Tao)

木遥按:这是数学家陶哲轩在他自己的blog上写的一篇科普文章,讨论的是近年来在应用数学领域里最热门的话题之一:压缩感知(compressed sensing)。所谓压缩感知,最核心的概念在于试图从原理上降低对一个信号进行测量的成本。比如说,一个信号包含一千个数据,那么按照传统的信号处理理论,至少需要做一千次测量才能完整的复原这个信号。这就相当于是说,需要有一千个方程才能精确地解出一千个未知数来。但是压缩感知的想法是假定信号具有某种特点(比如文中所描述得在小波域上系数稀疏的特点),那么就可以只做三百次测量就完整地复原这个信号(这就相当于只通过三百个方程解出一千个未知数)。可想而知,这件事情包含了许多重要的数学理论和广泛的应用前景,因此在最近三四年里吸引了大量注意力,得到了非常蓬勃的发展。陶哲轩本身是这个领域的奠基人之一(可以参考《陶哲轩:长大的神童》一文),因此这篇文章的权威性毋庸讳言。另外,这也是比较少见的由一流数学家直接撰写的关于自己前沿工作的普及性文章。需要说明的是,这篇文章是虽然是写给非数学专业的读者,但是也并不好懂,也许具有一些理工科背景会更容易理解一些。

【作者Terence Tao;译者山寨盲流,他的更多译作在这,那;校对木遥】

最近有不少人问我究竟‖压缩感知‖是什么意思(特别是随着最近这个概念名声大噪),所谓―单像素相机‖又是怎样工作的(又怎么能在某些场合比传统相机有优势呢)。这个课题已经有了大量文献,不过对于这么一个相对比较新的领域,还没有一篇优秀的非技术性介绍。所以笔者在此小做尝试,希望能够对非数学专业的读者有所帮助。

具体而言我将主要讨论摄像应用,尽管压缩传感作为测量技术应用于比成像广泛得多的领域(例如天文学,核磁共振,统计选取,等等),我将在帖子结尾简单谈谈这些领域。

相机的用途,自然是记录图像。为了简化论述,我们把图像假设成一个长方形阵列,比如说一个1024×2048像素的阵列(这样就总共是二百万像素)。为了省略彩色的问题(这个比较次要),我们就假设只需要黑白图像,那么每个像素就可以用一个整型的灰度值来计量其亮度(例如用八位整型数表示0到255,16位表示0到65535)。

接下来,按照最最简化的说法,传统相机会测量每一个像素的亮度(在上述例子中就是二百万个测量值),结果得到的图片文件就比较大(用8位灰度值就是2MB,16位灰度就是4MB)。数学上就认为这个文件是用超高维矢量值描绘的(在本例中就是约二百万维)。

在我开始讲―压缩感知‖这个新故事之前,必须先快速回顾一下―老式压缩‖的旧故事。(已经了解图像压缩算法的读者可以跳过这几段。)

上述的图片会占掉相机的很多存储空间(上传到计算机里还占磁盘空间),在各种介质之间传输的时候也要浪费时间。于是,相机带有显著压缩图像的功能就顺理成章了(通常能从2MB那么大压缩到十分之一——200KB的一小坨)。关键是尽管―所有图片‖所构成的空间要占用2MB的―自由度‖或者说―熵‖,由―有意义的图片‖所构成的空间其实要小得多,尤其是如果人们愿意降低一点图像质量的话。(实际上,如果一个人真的利用所有的自由度随机生成一幅图片,他不大可能得到什么有意义的图像,而是得到相当于电视荧屏上的静电雪花那样的随机噪声之类。)

怎么样压缩图像?方式多种多样,其中有些非常先进,不过我来试试用一种不太高科技的(而且也不太精确的)说法来描述一下这些先进技术。图像通常都含有大片无细节部分–比如在风景照里面,将近一半的画面都可能被单色的天空背景占据。我们假设提取一个大方块,比方说100×100像素,其中完全是同一颜色的——假设是全白的吧。无压缩时,这个方块要占10000字节存储空间(按照8位灰度算);但是我们可以只记录这个方块的维度和坐标,还有填充整个方块的单一颜色;这样总共也只要记录四五个字节,省下了可观的空间。不过在现实中,压缩效果没有这么好,因为表面看

来没有细节的地方其实是有着细微的色差的。所以,给定一个无细节方块,我们记录其平均色值,就把图片中这一块区域抽象成了单色色块,只留下微小的残余误差。接下来就可以继续选取更多色彩可见的方块,抽象成单色色块。最后剩下的是亮度(色彩强度)很小的,肉眼无法察觉的细节。于是就可以抛弃这些剩余的细节,只需要记录那些―可见‖色块的大小,位置和亮度。日后则可以反向操作,重建出比原始图像质量稍低一些,占空间却小得多的复制图片。

其实上述的算法并不适合处理颜色剧烈变动的情况,所以在实际应用中不很有效。事实上,更好的办法不是用均匀色块,而是用―不均匀‖的色块——比方说右半边色彩强度平均值大于左半边这样的色块。这种情况可以用(二维)Haar小波系统来描述。后来人们又发现一种‖更平滑的‖小波系统更能够避免误差,不过这都是技术细节,我们就不深入讨论了。然而所有这些系统的原理都是相同的:把原始图像表示为不同―小波(类似于上文中的色块)‖的线性叠加,记录显著的(高强度的)小波的系数,放弃掉(或者用阈值排除掉)剩下的小波系数。这种―小波系数硬阈值‖压缩算法没有实际应用的算法(比如JPEG 2000标准中所定义的)那么精细,不过多少也能描述压缩的普遍原理。

总体来讲(也是非常简化的说法),原始的1024×2048图像可能含有两百万自由度,想要用小波来表示这个图像的人需要两百万个不同小波才能完美重建。但是典型的有意义的图像,从小波理论的角度看来是非常稀疏的,也就是可压缩的:可能只需要十万个小波就已经足够获取图像所有的可见细节了,其余一百九十万小波只贡献很少量的,大多数观测者基本看不见的―随机噪声‖。(这也不是永远适用:含有大量纹理的图像–比如毛发、毛皮的图像——用小波算法特别难压缩,也是图像压缩算法的一大挑战。不过这是另一个故事了。)

接下来呢,如果我们(或者不如说是相机)事先知道两百万小波系数里面哪十万个是重要的,那就可以只计量这十万个系数,别的就不管了。(在图像上设置一种合适的―过滤器‖或叫―滤镜‖,然后计量过滤出来的每个像素的色彩强度,是一种可行的系数计量方法。)但是,相机是不会知道哪个系数是重要的,所以它只好计量全部两百万个像素,把整个图像转换成基本小波,找出需要留下的那十万个主导基本小波,再删掉其余的。(这当然只是真正的图像压缩算法的一个草图,不过为了便于讨论我们还是就这么用吧。)

那么,如今的数码相机当然已经很强大了,没什么问题干吗还要改进?事实上,上述的算法,需要收集大量数据,但是只需要存储一部分,在消费摄影中是没有问题的。尤其是随着数据存储变得很廉价,现在拍一大堆完全不压缩的照片也无所谓。而且,尽管出了名地耗电,压缩所需的运算过程仍然算得上轻松。但是,在非消费领域的某些应用中,这种数据收集方式并不可行,特别是在传感器网络中。如果打算用上千个传感器来收集数据,而这些传感器需要在固定地点呆上几个月那么长的时间,那么就需要尽可能地便宜和节能的传感器——这首先就排除了那些有强大运算能力的传感器(然而——这也相当重要——我们在接收处理数据的接收端仍然需要现代科技提供的奢侈的运算能力)。在这类应用中,数据收集方式越―傻瓜‖越好(而且这样的系统也需要很强壮,比如说,能够忍受10%的传感器丢失或者各种噪声和数据缺损)。

这就是压缩传感的用武之地了。其理论依据是:如果只需要10万个分量就可以重建绝大部分的图像,那何必还要做所有的200万次测量,只做10万次不就够了吗?(在实际应用中,我们会留一个安全余量,比如说测量30万像素,以应付可能遭遇的所有问题,从干扰到量化噪声,以及恢复算法的故障。)这样基本上能使节能上一个数量级,这对消费摄影没什么意义,对传感器网络而言却有实实在在的好处。

不过,正像我前面说的,相机自己不会预先知道两百万小波系数中需要记录哪十万个。要是相

机选取了另外10万(或者30万),反而把图片中所有有用的信息都扔掉了怎么办?

解决的办法简单但是不太直观。就是用非小波的算法来做30万个测量——尽管我前面确实讲过小波算法是观察和压缩图像的最佳手段。实际上最好的测量其实应该是(伪)随机测量——比如说随机生成30万个―滤镜‖图像并测量真实图像与每个滤镜的相关程度。这样,图像与滤镜之间的这些测

量结果(也就是―相关性‖)很有可能是非常小非常随机的。但是——这是关键所在——构成图像的2

百万种可能的小波函数会在这些随机的滤镜的测量下生成自己特有的―特征‖,它们每一个都会与某一些滤镜成正相关,与另一些滤镜成负相关,但是与更多的滤镜不相关。可是(在极大的概率下)2百万个特征都各不相同;更有甚者,其中任意十万个的线性组合仍然是各不相同的(以线性代数的观点来看,这是因为一个30万维线性子空间中任意两个10万维的子空间极有可能互不相交)。因此,基本上是有可能从这30万个随机数据中恢复图像的(至少是恢复图像中的10万个主要细节)。简而言之,我们是在讨论一个哈希函数的线性代数版本。

然而这种方式仍然存在两个技术问题。首先是噪声问题:10万个小波系数的叠加并不能完全代表整幅图像,另190万个系数也有少许贡献。这些小小贡献有可能会干扰那10万个小波的特征,这就是所谓的―失真‖问题。第二个问题是如何运用得到的30万测量数据来重建图像。

我们先来关注后一个问题。如果我们知道了2百万小波中哪10万个是有用的,那就可以使用标准的线性代数方法(高斯消除法,最小二乘法等等)来重建信号。(这正是线性编码最大的优点之一——它们比非线性编码更容易求逆。大多数哈希变换实际上是不可能求逆的——这在密码学上是一大优势,在信号恢复中却不是。)可是,就像前面说的那样,我们事前并不知道哪些小波是有用的。怎么找出来呢?一个单纯的最小二乘近似法会得出牵扯到全部2百万系数的可怕结果,生成的图像也含有大量颗粒噪点。要不然也可以代之以一种强力搜索,为每一组可能的10万关键系数都做一次线性

代数处理,不过这样做的耗时非常恐怖(总共要考虑大约10的17万次方个组合!),而且这种强力搜索通常是NP完备的(其中有些特例是所谓的―子集合加总‖问题)。不过还好,还是有两种可行的

手段来恢复数据:

? 匹配追踪:找到一个其标记看上去与收集到的数据相关的小波;在数据中去除这个标记的所

有印迹;不断重复直到我们能用小波标记―解释‖收集到的所有数据。

? 基追踪(又名L1模最小化):在所有与录得数据匹配的小波组合中,找到一个―最稀疏的‖,

也就是其中所有系数的绝对值总和越小越好。(这种最小化的结果趋向于迫使绝大多数系数都消失了。)这种最小化算法可以利用单纯形法之类的凸规划算法,在合理的时间内计算出来。

需要注意到的是,这类图像恢复算法还是需要相当的运算能力的(不过也还不是太变态),不

过在传感器网络这样的应用中这不成问题,因为图像恢复是在接收端(这端有办法连接到强大的计算机)而不是传感器端(这端就没办法了)进行的。

现在已经有严密的结果显示,对原始图像设定不同的压缩率或稀疏性,这两种算法完美或近似

完美地重建图像的成功率都很高。匹配追踪法通常比较快,而基追踪算法在考虑到噪声时则显得比较准确。这些算法确切的适用范围问题在今天仍然是非常热门的研究领域。(说来遗憾,目前还没有出现对P不等于NP问题的应用;如果一个重建问题(在考虑到测量矩阵时)是NP完备的,那它刚好就不能用上述算法解决。)

由于压缩传感还是一个相当新的领域(尤其是严密的数学结果刚刚出现),现在就期望这个技术应用到实用的传感器上还为时尚早。不过已经有概念验证模型出现了,其中最著名的是Rice大学研制的单像素相机。

最后必须提到的是,压缩传感技术是一种抽象的数学概念,而不是具体的操作方案,它可以应用到成像以外的许多领域。以下只是其中几个例子:

? 磁共振成像(MRI)。在医学上,磁共振的工作原理是做许多次(但次数仍是有限的)测量(基本上就是对人体图像进行离散拉东变换(也叫X光变换)),再对数据进行加工来生成图像(在这里就是人体内水的密度分布图像)。由于测量次数必须很多,整个过程对患者来说太过漫长。压缩传感技术可以显著减少测量次数,加快成像(甚至有可能做到实时成像,也就是核磁共振的视频而非静态图像)。此外我们还可以以测量次数换图像质量,用与原来一样的测量次数可以得到好得多的图像分辨率。

? 天文学。许多天文现象(如脉冲星)具有多种频率震荡特性,使其在频域上是高度稀疏也就是可压缩的。压缩传感技术将使我们能够在时域内测量这些现象(即记录望远镜数据)并能够精确重建原始信号,即使原始数据不完整或者干扰严重(原因可能是天气不佳,上机时间不够,或者就是因为地球自传使我们得不到全时序的数据)。

? 线性编码。压缩传感技术提供了一个简单的方法,让多个传送者可以将其信号带纠错地合并传送,这样即使输出信号的一大部分丢失或毁坏,仍然可以恢复出原始信号。例如,可以用任意一种线性编码把1000比特信息编码进一个3000比特的流;那么,即使其中300位被(恶意)毁坏,原始信息也能完全无损失地完美重建。这是因为压缩传感技术可以把破坏动作本身看作一个稀疏的信号(只集中在3000比特中的300位)。

许多这种应用都还只停留在理论阶段,可是这种算法能够影响测量和信号处理中如此之多的领域,其潜力实在是振奋人心。笔者自己最有成就感的就是能看到自己在纯数学领域的工作(例如估算傅立叶子式的行列式或单数值)最终具备造福现实世界的前景。

压缩感知简介

2011.No31 0 3.2 熟悉结构施工图 结构施工图是关于承重构件的布置,使用的材料、形状、大小及内部构造的工程图样,是承重构件以及其他受力构件施工的依据。 看结构施工图最难的就是钢筋,要把结施图看懂就要知道钢筋的分布情况,现在都是在使用平法来标示钢筋,所以也要把平法弄懂才行。在识读与熟悉结施图的过程中应该充分结合钢筋平法表示的系列图集,搞清楚: a 各结构构件的钢筋的品种,规格,以及受力钢筋在各构件的布置情况。 b 箍筋与纵向受力钢筋的位置关系。 c 各个构件纵向钢筋以及箍筋弯钩的角度及其长度。 d 熟悉各构件节点的钢筋的锚固长度。 e 熟悉各个构件钢筋的连接方式。 f 熟悉在钢筋的搭接区域内,钢筋的搭接长度。 g 核算钢筋的间距是否满足施工要求,尤其是各个构件节点处的钢筋间距。 h 弯起钢筋的弯折角度以及离连接点的距离。 除此以外,对于钢筋混凝土构件,还应该熟悉各个构件的砼保护层厚度,各个构件的尺寸大小、布置位置等。特别注意的是对于结施图的阅读应充分结合建施图进行。 4 结束语 在熟悉施工图纸的过程中,施工技术人员对于施工图纸中的疑问,和比较好的建议应该做好记录,为后续工作(图纸自审和会审)做好准备。 参考文献 [1]《建筑识图》周坚主编 中国电力出版社 2007年;[2]《建筑工程项目管理》银花主编 机械工业出版社 2010年; 摘 要 压缩感知(Compressive Sensing, CS)理论是一个充分利用信号稀疏性或可压缩性的全新信号采集、编解码理论。本文系一文献综述,主要介绍了压缩感知的三部分即信号的稀疏表示、测量矩阵的设计、信号恢复算法的设计。 关键词 压缩感知 稀疏表示 测量矩阵 信号恢复算法 1 引言 1928年由美国电信工程师H.奈奎斯特(Nyquist)首先提出,1948年信息论的创始人C.E.香农(Shannon)又对其加以明确说明并正式作为定理引用的奈奎斯特采样定理,是采样带限信号过程所遵循的规律。它指出:在进行模拟/数字信号的转换过程中,当采样频率fs.max大于信号中最高频率fmax的2倍时(fs.max>=2fmax),采样之后的数字信号完整地保留了原始信号中的信息。一般实际应用中保证采样频率为信号最高频率的5~10倍。该理论支配着几乎所有的信号/图像等的获取、处理、存储、传输等。随着科技的发展,成为目前信息领域进一步发展的主要瓶颈之一,主要表现在两个方面: (1)数据获取和处理方面。在许多实际应用中(例如超宽带信号处理、核磁共振、空间探测等),Nyquist采样硬件成本昂贵、获取效率低下,信息冗余及有效信息提取的效率低下,在某些情况甚至无法实现。 (2)数据存储和传输方面。通常的做法是先按照Nyquist方式获取数据,然后将获得的数据进行压缩,最后将压缩后的数据进行存储或传输,这样会造成很大程度的资源浪费。另外,为保证信息的安全传输,通常以某种方式对信号进行编码,这给信息的安全传输和接收带来一定程度的麻烦。 近年来,由D .D o n o h o (美国科学院院士)、E . Candes(Ridgelet, Curvelet创始人)及华裔科学家T. Tao(2006年菲尔兹奖获得者,2008年被评为世界上最聪明的科学家)等人提出了一种新的信息获取指导理论,即压缩感知(Compressive Sensing(CS),或称Compressed Sensing、Compressed Sampling)。该理论指出:对可压缩的信号通过远低于Nyquist标准的方式进行数据采样,仍能够精确地恢复出原压缩感知简介 刘太明1 黄 虎2 (1、成都理工大学,四川成都,610059;2、成都理工大学,四川成都,610059) 始信号。该理论一提出,就在信息论、信号/图像处理、医疗成像、模式识别、地质勘探、光学/雷达成像、无线通信等领域受到高度关注,并被美国科技评论评为2007年度十大科技进展。 2 CS基本原理 信号x∈R n×1压缩传感的测量过程可以表示为y=Ax∈R M×1,M<

压缩感知理论综述(原创)

压缩感知理论综述 摘要:信号采样是模拟的物理世界通向数字的信息世界之必备手段。多年来,指导信号采样的理论基础一直是著名的Nyquist采样定理,但其产生的大量数据造成了存储空间的浪费。压缩感知(Compressed Sensing)提出一种新的采样理论,它能够以远低于Nyquist采样速率采样信号。本文详述了压缩感知的基本理论,着重介绍了信号稀疏变换、观测矩阵设计和重构算法三个方面的最新进展,并介绍了压缩感知的应用及仿真,举例说明基于压缩感知理论的编解码理论在一维信号、二维图像处理上的应用。 关键词:压缩感知;稀疏表示;观测矩阵;编码;解码 一、引言 Nyquist采样定理指出,采样速率达到信号带宽的两倍以上时,才能由采样信号精确重建原始信号。可见,带宽是Nyquist采样定理对采样的本质要求。然而随着人们对信息需求量的增加,携带信息的信号带宽越来越宽,以此为基础的信号处理框架要求的采样速率和处理速度也越来越高。解决这些压力常见的方案是信号压缩。但是,信号压缩实际上是一种资源浪费,因为大量的不重要的或者只是冗余信息在压缩过程中被丢弃。从这个意义而言,我们得到以下结论:带宽不能本质地表达信号的信息,基于信号带宽的Nyquist采样机制是冗余的或者说是非信息的。 于是很自然地引出一个问题:能否利用其它变换空间描述信号,建立新的信号描述和处理的理论框架,使得在保证信息不损失的情况下,用远低于Nyquist 采样定理要求的速率采样信号,同时又可以完全恢复信号。与信号带宽相比,稀疏性能够直观地而且相对本质地表达信号的信息。事实上,稀疏性在现代信号处理领域起着至关重要的作用。近年来基于信号稀疏性提出一种称为压缩感知或压缩采样的新兴采样理论,成功实现了信号的同时采样与压缩。 简单地说,压缩感知理论指出:只要信号是可压缩的或在某个变换域是稀疏的,那么就可以用一个与变换基不相关的观测矩阵将变换所得高维信号投影到一个低维空间上,然后通过求解一个优化问题就可以从这些少量的投影中以高概率重构出原信号,可以证明这样的投影包含了重构信号的足够信息。在该理论框架

压缩感知的去噪应用

Noise reduction through Compressed Sensing J.F.Gemmeke,B.Cranen Dept.of Linguistics,Radboud University,Nijmegen,The Netherlands {J.Gemmeke, B.Cranen}@let.ru.nl Abstract We present an exemplar-based method for noise reduction using missing data imputation:A noise-corrupted word is sparsely represented in an over-complete basis of exemplar(clean) speech signals using only the uncorrupted time-frequency ele-ments of the word.Prior to recognition the parts of the spectro-gram dominated by noise are replaced by clean speech estimates obtained by projecting the sparse representation in the basis. Since at low SNRs individual frames may contain few,if any, uncorrupted coef?cients,the method tries to exploit all reliable information that is available in a word-length time window.We study the effectiveness of this approach on the Interspeech2008 Consonant Challenge(VCV)data as well as on AURORA-2 https://www.360docs.net/doc/3b3740164.html,ing oracle masks,we obtain obtain accuracies of36-44%on the VCV data.On AURORA-2we obtain an accuracy of91%at SNR-5dB,compared to61%using a conventional frame-based approach,clearly illustrating the great potential of the method. Index Terms:Automatic Speech Recognition,Missing Data Techniques,Compressed Sensing 1.Introduction Automatic speech recognition(ASR)performance degrades substantially when speech is corrupted by background noises. Missing Data Techniques(MDT)[1,2]provide a powerful way to mitigate the impact of both stationary and non-stationary noise for moderate Signal-to-Noise(SNR)ratios.The gen-eral idea behind MDT is that it is possible to estimate?prior to decoding?which spectro-temporal elements of the acoustic representations are reliable(i.e.,dominated by speech energy) and which are unreliable(i.e.,dominated by background noise). These reliability estimates are used to treat reliable and unreli-able features differently and are referred to as a spectrographic mask.This information can for instance be used to replace the unreliable features by clean speech estimates,a process called imputation([3]). Although recognition accuracy can be improved substan-tially with MDT,at SNRs(≤0dB)the gain in recognition per-formance appears generally too small to be of practical use.A possible explanation is that at SNRs≤0dB a substantial num-ber of frames may contain few,if any,reliable features.As the number of reliable coef?cients in a frame decreases,it becomes more dif?cult to safely impute the missing coef?cients because in most MDT approaches imputation is performed on a frame by frame(i.e.strictly local)basis.This cannot but degrade recognition performance. Due to continuity constraints imposed by the speech pro-duction system,speech energy is distributed over the time-frequency plane in patches which cannot be of arbitrary small https://www.360docs.net/doc/3b3740164.html,ing a(much)wider time window than a single frame might provide a way to exploit this continuity over time for im-puting missing data thus avoiding local information scarcity.In this paper we propose a novel,exemplar based,data imputation front-end that tries to take advantage of the dependencies be- tween neighboring frames by using a larger spectro-temporal context.The technique is dubbed sparse imputation and is based on work in the emergent?eld of Compressed Sensing [4,5]. Following an approach similar to[6],we treat entire words as units and represent them by?xed length vectors.We rep- resent unknown words as a linear combination of as few as possible exemplar words in a training database.Work in Com- pressed Sensing has shown that if such a linear combination is sparse,the weight vector can be determined using only a small part of the elements of the feature vector representing the un- known item.We exploit this property by using only the features that were considered reliable in the noisy input according to the spectrographic mask.Next,the linear combination of clean exemplar words is used for reconstructing the unreliable coef?- cients of the noisy words.Finally,the imputed feature vectors are processed by a conventional HMM-based ASR. In this paper we present a feasibility study to show that the Compressed Sensing approach is also potentially bene?cial for speech recognition.We explore the effectiveness of our method by applying it to the Interspeech2008Consonant Challenge (VCV)data[7])using two different mask types:the’oracle’ mask1and a mask which estimates reliability based on a har- monic decomposition,dubbed harmonicity mask([8]).Addi- tionally,we compare the recognition performance that we ob- tained by means of our new,whole word based sparse imputa- tion method with the results from a classical,frame based im- putation approach using the AURORA-2digit recognition task, which also allows us to investigate relative improvement as a function of SNR.We explain why the improvement is larger for oracle than for harmonicity masks. 2.Method 2.1.Speech materials and classi?cation task Two word recognition tasks were performed.First,we per- formed intervocalic English consonant recognition using the VCV data(consisting of1clean and6noisy subsets)which are described in[7].Second,we carried out a single-digit recogni- tion/classi?cation task using test set A from the AURORA-2cor- pus which comprises1clean and24noisy subsets,with four noise types(subway,car,babble,exhibition hall)at six SNR levels,SNR=20,15,10,5,0,?5dB Due to the constraint that the current implementation of our exemplar-based imputation technique operates on whole- 1Oracle masks are masks in which reliability decisions are based on exact knowledge about the extent to which each time-frequency cell is dominated by either noise or speech

陆吾生-压缩感知方法及其在稀疏信号和图像处理中的应用

陆吾生教授短期课程“压缩感知方法及其在稀疏信号和图像 处理中的应用”资料 1. 课程介绍_压缩感知方法及其在稀疏信号和图像处理中的应 用.doc 2. 陆吾生教授短期课程“压缩感知方法及其在稀疏信号和图像处理中的应用”的讲义 Lecture_Notes_CS_LWS_Final.pdf 3. 各章所涉及到的Matlab程序 Main functions Main functions.zip(内含 ex3_1.m (for Example 3.1) ex3_2.m (for Example 3.2) gp_denoise.m (for Algorithm GP in Sec.3.2) fgp_denoise.m (for Algorithm FGP in Sec.3.2) gp_deblurr.m (for Algorithm GPB in Sec.3.3) ) Auxiliary functions Auxiliary functions.zip(内含gen_dct.m oper_L.m oper_Lt.m proj_bound.m proj_pair.m gp_denoise_w.m) Data Data.zip(内含camera256.mat 及 lena256.mat)

4. 陆吾生“压缩感知方法及其在稀疏信号和图像处理中的应用”课程(1A-6B)上课录像 Lecture_LWS_1A.rmvb 2010.11.09.(220M) Lecture_LWS_1B.rmvb 2010.11.09.(231M) Lecture_LWS_2A.rmvb 2010.11.11.(252M) Lecture_LWS_2B.rmvb 2010.11.11.(193M) Lecture_LWS_3A.rmvb 2010.11.12.(225M) Lecture_LWS_3B.rmvb 2010.11.12.(200M) Lecture_LWS_4A.rmvb 2010.11.16.(239M) Lecture_LWS_4B.rmvb 2010.11.16.(169M) Lecture_LWS_5A.rmvb 2010.11.18.(239M) Lecture_LWS_5B.rmvb 2010.11.18.(226M) Lecture_LWS_6A.rmvb 2010.11.19.(256M) Lecture_LWS_6B.rmvb 2010.11.19.(224M) 5. 陆吾生教授2010.11.17.在上海大学所做的学术报告,题为:

压缩感知理论

压缩感知理论 一、压缩感知理论简介 压缩感知,又称压缩采样,压缩传感。它作为一个新的采样理论,它通过开发信号的稀疏特性,在远小于Nyquist 采样率的条件下,用随机采样获取信号的离散样本,然后通过非线性重建算法完美的重建信号。压缩感知理论一经提出,就引起学术界和工业界的广泛关注。它在信息论、图像处理、地球科学、光学、微波成像、模式识别、无线通信、大气、地质等领域受到高度关注,并被美国科技评论评为2007年度十大科技进展。 二、压缩感知产生背景 信号采样是模拟的物理世界通向数字的信息世界之必备手段。多年来,指导信号采样的理论基础一直是著名的Nyquist 采样定理。定理指出,只有当采样速率达到信号带宽的两倍以上时,才能由采样信号精确重建原始信号。可见,带宽是Nyquist 采样定理对采样的本质要求。但是,对于超宽带通信和信号处理、核磁共振成像、雷达遥感成像、传感器网络等实际应用,信号的带宽变得越来越大,人们对信号的采样速率、传输速度和存储空间的要求也变得越来越高。为了缓解对信号传输速度和存储空间的压力,当前常见的解决方案是信号压缩但是,信号压缩实际上是一种严重的资源浪费,因为大量采样数据在压缩过程中被丢弃了,它们对于信号来说是不重要的或者只是冗余信息。故而就有人研究如何很好地利用采集到的信号,压缩感知是由 E. J. Candes 、J. Romberg 、T. T ao 和D. L. Donoho 等科学家于2004 年提出,压缩感知方法抛弃了当前信号采样中的冗余信息。它直接从连续时间信号变换得到压缩样本,然后在数字信号处理中采用优化方法处理压缩样本。这里恢复信号所需的优化算法常常是一个已知信号稀疏的欠定线性逆问题。 三、压缩感知理论 压缩感知理论主要涉及到三个方面,即信号的稀疏表示、测量矩阵的设计和重构算法的构造。稀疏信号广义上可理解为信号中只有少数元素是非零的,或者信号在某一变换域内少数元素是非零的。那么在我们如果只保留这些非零数据,丢弃其他的系数,则可以减小储存该信号需要的空间,达到了压缩(有损压缩)的目的,同时,这些系数可以重构原始信号,不过一般而言得到的是X 的一个逼近。在实际生活中有很多数字信号都是稀疏信号或者在某一变换域内是稀疏的,这样压缩感知理论的第一个方面就可以得到满足。如果信号N x R ∈在某变换域内是稀疏的,可以用一组正交基12[,,,]N ψψψψ= 线性组合表示:1 N i i i x s s ψ===ψ∑,其中式中,是对应于正交基的投影系数。由稀疏性可知其内只含有少数不为零的数,感知信号y 可表示为:y x s s =Φ=Φψ=Θ,Φ就为测量矩阵,Ψ为稀疏表示矩阵,当测量矩阵与稀疏表示矩阵不相关时就可以从s 中不失真的恢复出原始信号x ,常用的测量矩阵有高斯随机阵等。接下来是算法的重构,由于用少数信号恢复原来的大信号,这是一个欠定问题,一般用最优化方法来求解。这就是压缩感知理论体系的基本理论。 四、对这一创新案例的分析

基于压缩感知的水下图像去噪

基于压缩感知的水下图像去噪 作者:丁伟王国宇王宝锋 来源:《现代电子技术》2013年第02期 摘要:水下环境复杂,水下摄像得到的图像较为模糊。采集数据时会采集到大量不包含任何有用信息的数据,噪声影响更严重。压缩感知理论提出,能用较低采样率高概率重构信号。为研究压缩感知对水下图像噪声的抑制作用,采用OMP,SP,COSAMP不同贪婪重构算法对水下图像进行不同采样率重构分析。实验结果表明,选取合适采样率既可以以少量数据重构图像,又可以抑制水下噪声,且OMP算法效果最好。 关键词:压缩感知;水下图像;图像重构;图像去噪 中图分类号:TN919?34 文献标识码:A 文章编号:1004?373X(2013)02?0019?03 0 引言 随着地球上人口的激增,陆上资源的不断消耗,海洋逐渐成为人类赖以生存的发展新空间。人类在对海洋进行探索发现时,往往采取水下摄像的方式获取有价值的信息。相机在处理过程中需要采集大量数据,但经过变换后只需存储一小部分,大量不包含任何有用信息的冗余数据也被采集,这就对设备要求高,并且采集到的水下图像噪声的影响也会增大。 压缩感知的方法可以直接获取少量包含绝大部分目标信息的数据,经过重构得到需要的水下图像。基于压缩感知的图像去噪方法,将图像中的有用信息部分作为图像中的稀疏成分,而将图像中的噪声作为图像去除其中稀疏成分后得到的残差,并以此作为图像去噪处理的基础。本文主要研究贪婪重构算法系列对水下图像有色噪声的抑制作用[1]。 1 压缩感知理论介绍 1.1 压缩感知理论的提出 在日常生活中,人们接触的信号大多数是模拟的,但是目前在信息处理过程中能处理的信号却只能是数字化的,所以人们要得到信号,首先就要进行A/D转换,即模拟/数字信号转换。转换过程主要包括采样、压缩、传输和解压缩4个部分。 其中采样过程必须满足奈奎斯特采样定理,即采样频率大于等于模拟信号频谱中最高频率的2倍。然而随着时代发展,人们对信息需求量逐渐增加,携带信息的信号带宽越来越宽,所要求的处理速度和采样速率越来越高,这就使得相应的硬件条件难以实现,给信号的转换过程带来巨大的压力。是否能够采用一种新的方法,在保证信息不损失的情况下,用远低于采样定理要求的速率采样信号,又能恢复信号,成为研究的热点。

压缩感知原理

压缩感知原理(附程序) 1压缩感知引论 传统方式下的信号处理,是按照奈奎斯特采样定理对信号进行采样,得到大量的采样数据,需要先获取整个信号再进行压缩,其压缩过程如图2.1。 图2.1 传统的信号压缩过程 在此过程中,大部分采样数据将会被抛弃,即高速采样后再压缩的过程浪费了大量的采样资源,这就极大地增加了存储和传输的代价。 由于带宽的限制,许多信号只包含少量的重要频率的信息。所以大部分信号是稀疏的或是可压缩的,对于这种类型的信号,既然传统方法采样的多数数据会被抛弃,那么,为什么还要获取全部数据而不直接获取需要保留的数据呢?Candes和Donoho等人于2004年提出了压缩感知理论。该理论可以理解为将模拟数据节约地转换成压缩数字形式,避免了资源的浪费。即,在采样信号的同时就对数据进行适当的压缩,相当于在采样过程中寻找最少的系数来表示信号,并能用适当的重构算法从压缩数据中恢复出原始信号。压缩感知的主要目标是从少量的非适应线性测量中精确有效地重构信号。核心概念在于试图从原理上降低对一个信号进行测量的成本。压缩感知包含了许多重要的数学理论,具有广泛的应用前景,最近几年引起广泛的关注,得到了蓬勃的发展。 2压缩感知原理 压缩感知,也被称为压缩传感或压缩采样,是一种利用稀疏的或可压缩的信号进行信号重构的技术。或者可以说是信号在采样的同时被压缩,从而在很大程度上降低了采样率。压缩感知跳过了采集N个样本这一步骤,直接获得压缩的信号的表示。CS理论利用到了许多自然信号在特定的基 上具有紧凑的表示。即这些信号是“稀疏”的或“可压缩”的。由于这一特性,压缩感知理论的信号编解码框架和传统的压缩过程大不一样,主要包括信号的稀疏表示、编码测量和重构算法等三个方面。

压缩感知原理

压缩感知原理 1压缩感知引论 传统方式下的信号处理,是按照奈奎斯特采样定理对信号进行采样,得到大量 的采样数据,需要先获取整个信号再进行压缩,其压缩过程如图 2.1。 在此过程中,大部分采样数据将会被抛弃,即高速采样后再压缩的过程浪费了大量的采样资源,这就极大地增加了存储和传输的代价。 由于带宽的限制,许多信号只包含少量的重要频率的信息。所以大部分信号是稀疏的或是可压缩的,对于这种类型的信号,既然传统方法采样的多数数据会被抛弃,那么,为什么还要获取全部数据而不直接获取需要保留的数据呢?Candes和Donoho等人于2004年提出了压缩感知理论。该理论可以理解为将模拟数据节约地转换成压缩数字形式,避免了资源的浪费。即,在采样信号的同时就对数据进行适当的压缩,相当于在采样过程中寻找最少的系数来表示信号,并能用适当的重构算法从压缩数据中恢复出原始信号。压缩感知的主要目标是从少量的非适应线性测量中精确有效地重构信号。核心概念在于试图从原理上降低对一个信号进行测量的成本。压缩感知包含了许多重要的数学理论,具有广泛的应用前景,最近几年引起广泛的关注,得到了蓬勃的发展。 2压缩感知原理 压缩感知,也被称为压缩传感或压缩采样,是一种利用稀疏的或可压缩的信号进行信号重构的技术。或者可以说是信号在采样的同时被压缩,从而在很大程度上降低了采样率。压缩感知跳过了采集N个样本这一步骤,直接获得压缩的信号的表示。CS理论利用到了许多自然信号在特定的基上具有紧凑的表示。即这些信号 是“稀疏”的或“可压缩”的。由于这一特性,压缩感知理论的信号编解码框架和传统的压缩过程大不一样,主要包括信号的稀疏表示、编码测量和重构算法等三个方面。 对于一个实值的有限长一维离散时间信号 X ,可以看作为一个R N空间N X 1的 维的列向量,元素为n, n,=1 , 2,…N。R N空间的任何信号都可以用N X1维

压缩感知新技术专题讲座_四_第7讲压缩感知在图像信号处理中的应用

压缩感知新技术专题讲座(四) 第7讲 压缩感知在图像信号处理中的应用 李 莉,杨吉斌,赵 斐 (解放军理工大学指挥自动化学院信息作战系,江苏南京210007)摘 要:绝大部分自然图像信号都在某个变换域具有稀疏性或近稀疏性。基于压缩感知理论,可以用远低 于采样定理要求的采样频率采集信号,并可在一定条件下高概率恢复信号,这将极大降低图像信号的采样频率以 及数据存储和传输的代价。文章首先简述了压缩感知理论,然后分析了图像的稀疏性对图像重建质量的影响,最后 着重从图像压缩、图像融合、图像去噪、图像识别以及图像复原几个方面分析了压缩感知理论在图像处理领域中的 应用以及目前所面临的问题。 关键词:压缩感知;稀疏表示;图像压缩;图像融合;图像去噪;图像识别;图像复原 中图分类号:T N 911.73文献标识码:A 文章编号:CN 32-1289(2012)03-0093-07 Application of Compressed Sensing in Field of Image Signal Processing L I L i ,YA N G J i -bin ,ZH A O Fei (Depar tment of I nfo rma tio n O peration Studies ICA ,PL A U ST ,N anjing 210007,China) Abstract :M ost natural im ag e signals are sparse or near ly sparse in a transform domain . Based on the theo ry of com pr essed sensing ,the signal with the sampling frequency much low er than the sampling theorem can be sampled,and sig nal w ith high pro bability under certain co nditions recov er ed.T his can greatly reduce the sampling frequency and the cost o f data storage and transm ission o f the im ag e sig nal.T his paper firstly outlined the com pressed sensing theor y, then analysed the effect of the sparsity of the imag e on the reconstruction quality and finally analy sed the application of the compressed sensing theor y in the field o f im ag e pro cessing fro m image com pression ,imag e fusio n ,image denoising ,im ag e recog nition and image resto ration . Key words :compressed sensing ;sparse r epresentation;image co mpr ession;imag e fusion; image denoising ;imag e recog nition;im age restor ation 传统的图像信号采集和处理方法都是基于奈奎斯特采样定理的,即为了精确重构信号,对信号的采样频率不能低于模拟信号频谱中最高频率的2倍。近年来,在许多实际应用中,传感系统获取数据的能力不断增强,图像信号的频谱越来越宽,如核磁共振成像信号、雷达遥感成像信号等,因此,基于奈奎斯特采样定理的图像获取、存储、压缩、融合等应用对信号处理能力的要求越来越高,也给相应的硬件实现带来严峻考验。因此,有必要寻求新的突破奈奎斯特采样定理的信息采集、处理方法。 2004年由Cand s 、Donoho 和Tao 等人提出了一种新的信息获取指导理论——压缩感知理论,或称压缩采样技术,相关文献[1~3]在2006年正式发表。该理论指出,若信号在某个变换域是稀疏的或可压缩的,就可第33卷第3期 2012年9月军 事 通 信 技 术Journal of M ilitar y Co mmunicat ions T echnolog y V o l.33No.3Sep.2012 收稿日期:2012-02-16;修回日期:2012-06-11 作者简介:李 莉(1977-),女,硕士,讲师.

浅谈压缩感知方法及其在雷达领域的应用

浅谈压缩感知方法及其在雷达领域的应用 摘要:传统信号处理的采样率必须满足香农定理。随着携带信息量和系统分辨率的提高,系统带宽不断增大,这对系统传输和存储等带来巨大压力。压缩感知理论利用信号内在的稀疏性,以低于奈奎斯特采样率对其进行采样,显著降低信号处理的成本。文章介绍了压缩感知方法的基本理论和几类典型稀疏重构方法,并通过仿真实验分析了它们的性能。最后结合几个典型实例,概述了采用压缩感知方法解决雷达信号处理领域某些特定工程问题的优势。 Abstract:Conventional signal processing approaches must follow Shannon's celebrated theorem. As the promotion of information and resolution,the band of system will also increase. The transmission and storage of system is greatly challenged. While compressive sensing theory can sample signal at the rate below Nyquist Sampling frequency to lessen the system cost in signal processing. This paper introduces the basic theory of compressive sensing and several typical sparse recovery methods. The performance of different methods was illustrated through simulation. Via several typical applications in radar,we showed the advantage in dealing with some special

一种基于压缩感知的全变分图像去噪算法

2018年第32卷第4期测试技术学报Vol.32 No.4 2018 (总第130期)JOURNAL OF TEST AND MEASUREMENT TECHNOLOGY(Sum No.130) 文章编号:1671-7449(2018)04-0323-06 一种基于压缩感知的全变分图像去噪算法 刘泽鹏1,2,陈媛媛1,2 (1.中北大学光电信息与仪器工程工程研究中心,山西太原030051; 2.中北大学信息与通信工程学院,山西太原030051) 摘要:针对传统图像去噪方法的不足,提出了一种基于压缩感知的全变分正则化图像去噪算法,利用基 于压缩感知算法中的TVAL3算法对含噪图像进行图像重构和噪声去除.通过对比该算法与OMP(Ortho g- onal matchin g p ursuit,OMP)与SP(Subs p ace p ursuit,SP)算法的峰值信噪比和重构时间,发现在采样率为 0.4和0.8时,该算法的峰值信噪比提高都在3dB以上,时间方面也有明显提升;随着采样率的提升,算法 所需的迭代次数越来越少;采样率为0.4时,所需的迭代次数为78次,但采样率在0.8时,迭代次数减少到 57次,所需时间越来越短.实验结果表明,该算法的重构效果明显优于其它压缩感知重建算法,能够很好地 进行图像重构和噪声去除. 关键词:图像去噪;压缩感知;全变分正则化;图像重构 中图分类号: TN911.73文献标识码:A doi:10.3969/j.issn.1671-7449.2018.04.008 Total Variation Ima g e Denoisin g Al g orithm Based on Com p ressed Sensin g LIU Ze p en g1,2,CHEN Yuan y uan1,2 (1.O p toelectronic Information and Instrument En g ineerin g Research Center, North Universit y of China,Tai y uan030051,China; 2.School of Information and Communication En g ineerin g,North Universit y of China,Tai y uan030051,China) Abstract: Aimin g at the deficiencies of the traditional ima g e denoisin g methods,a full variational re g u-larized ima g e denoisin g method based on com p ressive sensin g is p ro p osed.The TVAL3al g orithm based on com p ressed sensin g al g orithm is used to reconstruct the ima g es and denoise.B y com p arin g with the p eak si g nal-to-noise ratio and reconstruction time of the OMP and SP com p ressed sensin g al g orithms,at sam p lin g rates of0.4and0.8,the p eak si g nal-to-noise ratio of the al g orithm is increased a pp roximatel y 3dB or more,the reconstruction time has also increased si g nificantl y.With the increase of sam p lin g rate,the number of iterations re q uired b y the al g orithm becomes smaller and smaller.At the sam p lin g rate of0.4,the re q uired number of iterations is78.However,the number of iterations is reduced to57 at sam p lin g rate of0.8,and the time re q uired is g ettin g shorter and shorter.The ex p erimental results show that the reconstruction effect of this al g orithm is obviousl y better than other com p ressed sensin g reconstruction al g orithms,and it can well p erform ima g e reconstruction and noise removal. Ke y words:ima g e denoisin g;com p ressed sensin g;total variation re g ularization;ima g e reconstruction 收稿日期:2018-03-15 基金项目:国家自然科学基金青年基金资助项目(61605176) 万方数据 作者简介:刘泽鹏(1991-),男,硕士生,主要从事压缩感知重构二图像去模糊的研究.

相关文档
最新文档