结构化低秩矩阵分解方法介绍
求解矩阵补全问题的三分解方法

求解矩阵补全问题的三分解方法常彩霞;王永丽【摘要】在机器学习、图像处理等研究领域,矩阵补全主要用于恢复一个完整的低秩矩阵.考虑到计算迭代过程中,每一步均需要进行奇异值分解,若矩阵维数过大.则计算复杂度非常高.为降低计算复杂度,本文将矩阵三分解方法应用到鲁棒矩阵补全问题中,并应用交替方向乘子法对其进行求解.最后利用人脸识别的实际数据,通过数值实验验证了方法的有效性.【期刊名称】《山东科技大学学报(自然科学版)》【年(卷),期】2018(037)004【总页数】6页(P77-82)【关键词】矩阵补全;三分解方法;交替方向乘子法;人脸识别【作者】常彩霞;王永丽【作者单位】山东科技大学数学与系统科学学院,山东青岛266590;山东科技大学数学与系统科学学院,山东青岛266590【正文语种】中文【中图分类】TN957.52近年来,矩阵补全问题广泛应用于图像处理、计算机视觉、数据挖掘、模式识别和机器学习等领域。
作为信号与图像处理技术的一个强大的新兴分支,矩阵补全已成为继压缩感知之后的又一种重要的信号获取工具[1]。
一般来说,要根据信号的部分采样元素来精确地恢复出所有元素是非常困难甚至是不可能的。
但是当信号在一组基下是稀疏的且满足一定条件时,压缩感知理论证实了可以通过求解l1最小化问题来精确地恢复所有元素[2]。
类似的,当信号用矩阵形式表示时,要根据其部分元素来恢复所有丢失元素也是很困难的。
针对这一问题,Candès等[3]证明了当矩阵的奇异值具有稀疏性且采样数目满足一定条件时,大多数矩阵可以通过求解核范数最小化问题来精确地恢复所有元素。
由矩阵的部分元素恢复所有元素这一问题称为矩阵补全问题,著名的Netflix问题便是一个典型的矩阵补全问题[4]。
给定不完整的低秩缺失矩阵W∈Rm×n,矩阵补全问题可以描述为如下优化问题:(1)其中A∈Rm×n为待补全的矩阵,Ω是A的p个已知元素的指标集。
低秩矩阵分解与逼近

机器学习10.低秩矩阵分解主要内容低秩矩阵分解问题L2VS L1主要问题:缺失+噪音 CWMMoG主要内容低秩矩阵分解问题L2VS L1主要问题:缺失+噪音 CWMMoG已知数据:计算两个低秩矩阵目标:使低秩矩阵乘积尽可能重目标使低秩矩阵乘积尽可能重建原矩阵大量应用:运动中的结构检测社交网络/推荐系统(E.g.,Eriksson and Hengel ,2010)人脸建模信息提取(E.g.,Cheng et al., 2012)(E.g., Candes et al.,2012)(E.g. Deerwester et al. 1990)关键问题:☐如何度量原数据与重建数据偏差?性能?最常见误差函数选择:最常见误差函数选择主要内容低秩矩阵分解问题 L2VS L1主要问题:缺失+噪音 CWMMoG各自优劣?L2模型的解为?加正交约束有无影响?L2范数模型L1 范数模型 SVDY oung diagram (CVPR, 2008)T orre&Black (ICCV , 2001) R1PCA (ICML, 2006) L2 Wiberg (IJCV , 2007)LM_S/LM_M (IJCV , 2008)SALS (CVIU, 2010)LRSDP (NIPS, 2010)PCAL1 (PAMI, 2008) ALP/AQP (CVPR, 2005) L1Wiberg (CVPR, 2010, best paper award) RegL1ALM (CVPR, 2012) Damped Wiberg (ICCV , 2011)Weighted SVD (T echnometrics, 1979) WLRA (ICML, 2003)Damped Newton (CVPR, 2005) CWM (AAAI, 2013)Reg-ALM-L1 (CVPR, 2013)L2范数模型L1 范数模型SVDY oung diagram (CVPR, 2008) T orre&Black (ICCV , 2001) R1PCA (ICML, 2006) L2 Wiberg (IJCV , 2007) LM_S/LM_M (IJCV , 2008) SALS (CVIU, 2010) LRSDP (NIPS, 2010)PCAL1 (PAMI, 2008) ALP/AQP (CVPR, 2005)L1Wiberg (CVPR, 2010, best paper award) RegL1ALM (CVPR, 2012)Damped Wiberg (ICCV , 2011)Weighted SVD (T echnometrics, 1979) WLRA (ICML, 2003)Damped Newton (CVPR, 2005) CWM (AAAI, 2013)Reg-ALM-L1 (CVPR, 2013)L2范数模型L1 范数模型优点: 光滑模型优点: 对极端异常点表现稳健算法速度快在无缺失前提下有全局极优缺点: 对异常点与强噪音点表现不稳缺点: 非光滑模型算法速度慢健在高斯噪音下表现不佳R b t P bl 为什么?!Robust Problem为什么对于大误差点的惩罚Mean vs Median 误差分布假设主要内容低秩矩阵分解问题 L2VS L1主要问题:缺失+噪音 CWM MoG数据缺失强噪音{01}⨯d n ,{0,1},∈∈ij W R w 为Hardamard 乘积算子L1低秩矩阵分解模型对异常点与强噪音表现稳健!✓Ke and Kanade, CVPR, 2005✓Eriksson and van den Hengel, CVPR, 2010✓Kwak TPAMI 2008Kwak, TPAMI, 2008✓Wright et al., NIPS, 2009✓Zheng et al., CVPR, 2012✓…L1 Low-Ranki i iMatrix Factorization典型方法:✓ALP: Ke and Kanade, CVPR. 2005Wib L1E ik d d H l CVPR2010✓WibergL1: Eriksson and van den Hengel, CVPR. 2010.✓PCAL1: Kwak, TPAMI. 2008.✓Robust PCA: Wright et al., NIPS. 2009.✓RegL1ALM: Zheng et al., CVPR. 2012✓…优点✓对异常点表现稳健缺点✓非光滑非凸模型✓算法速度慢主要内容低秩矩阵分解问题 L2VS L1主要问题:缺失+噪音 CWM MoGCWMCoordinate D t动机在很多其它机器学习问题中坐标下降算法Descent : 在很多其它机器学习问题中,坐标下降算法已经成为非常有效的计算方法之一LassoRidge RegressionElastic Net. (Friedman et al., 2007; 2010)坐标下降:将原问题分解为针对每个变量元素优化的子问题,然后顺序求解,对L1 LRMF 问题而言:每个子问题均是凸的每个子问题均可通过加权均值滤子快速准确求解算法复杂度与数据大小与维度呈近似线性增长Cyclic Weighted MedianW X UVT()L1难点?CWML1 LRMF 模型可按如下两种方式进行分解11()()-=-∑TTj j j L L W X UV W X u v 11()()=-=-∑Ti i i i j ji L L jW E u v w e u ij v 11()()-=-∑Ti j ji L L W X UV we v ij u jT i j j j i E X u v ≠=-∑, j w 与 j w分别为W 的第j 列和行, i j e 与i j e 分别为i E 的第j 列和行,ij u 与ij v 分别为i u 与i v 的第j 个元素.Cyclic Weighted Median-TW X UV 1()L VSVS.1()-i j ji L w e u ij v 1-i j jj i L w e w u ijv ()-i j ji w e v ij u -i j jj i w e w v ij u 1L 1LCyclic Weighted MedianL1 LRMF 关于U,V的子关于每个变量元素的子问题问题Cyclic Weighted Median每个子问题转换为一个标准的加权均值问题!Cyclic Weighted MedianL1 LRMF 目标函数在迭代过程中单调递减!Cyclic Weighted Median计算复杂度:稠密数据:O(d logd)稀疏数据:O(s logs)稠密数据:O(n logn)稀疏数据:O(s logs)s 为数据矩阵每列/行的本质稀疏度当数据矩阵高度稀疏时, CWM 计算复杂度仅为O((n+d)s), 少于现有最快的算法复杂度O(dn).O((+d)) O(d)Cyclic Weighted Median人工: 100个矩阵,每个大小为7×12,秩为3.Cyclic Weighted Median人脸数据人脸数据:Yale B dataset✓Facedata1 & Facedata2:每组包含64张脸,每个脸大小包含一定程度的缺失与24×21,包含定程度的缺失与椒盐噪声点。
矩阵低秩分解理论课件

多媒体技术与小学语文教学的有效融合【摘要】本文旨在探讨多媒体技术与小学语文教学的有效融合。
在介绍了这一主题的重要性。
在分别从多媒体技术在小学语文教学中的应用、提升教学效果、促进学生学习兴趣、缓解教学难点以及实践案例等方面进行了分析。
随后在总结了多媒体技术与小学语文教学融合的重要性,并探讨了未来多媒体技术在小学语文教学中的发展方向,倡导了深度融合的观点。
通过本文的研究,可以清晰地看到多媒体技术在小学语文教学中的价值和潜力,为提升教学质量和学生学习效果提供了新的思路和方法。
【关键词】多媒体技术、小学语文教学、融合、应用、提升效果、提高兴趣、缓解难点、实践案例、重要性、发展方向、深度融合1. 引言1.1 多媒体技术与小学语文教学的有效融合多媒体技术与小学语文教学的有效融合,是当前教育领域中备受关注的话题。
随着科技的发展和普及,多媒体技术在教育教学中的运用逐渐广泛,而在小学语文教学中,充分利用多媒体技术,将会对学生的语文学习起到积极的促进作用。
语文教学是小学教育的重要组成部分,而多媒体技术的引入使得传统的语文教学方式得到了革新和提升。
通过多媒体技术,教师可以呈现丰富多彩的教学内容,如图文并茂的课件、生动有趣的动画等,这不仅可以激发学生的学习兴趣,还能提升教学效果。
多媒体技术还能够帮助教师解决小学语文教学中的难点和问题,比如词语解释、生字认读等。
通过多媒体技术,这些看似抽象难懂的知识可以被生动形象地呈现出来,使学生更容易理解和掌握。
多媒体技术与小学语文教学的有效融合是一种创新、高效的教学方式,它不仅提升了教学效果,还帮助学生增加学习兴趣,促进了语文素养的提高。
在未来,随着多媒体技术的进一步发展,它将在小学语文教学中发挥出更大的作用,倡导多媒体技术与小学语文教学的深度融合将成为当前教育改革的重要方向。
2. 正文2.1 多媒体技术在小学语文教学中的应用多媒体技术在小学语文教学中的应用是指利用计算机、视频、音频、图像等多种媒体形式,结合教学内容和教学目标,为小学生提供多样化的学习方式和资源。
矩阵分解方法

矩阵分解方法矩阵分解方法是一种将一个大型矩阵分解成小矩阵的技术。
这种方法在数学、计算机科学、物理和化学等领域都得到了广泛的应用。
本文将介绍这种技术的基本原理、常见方法以及应用案例。
一、基本原理矩阵分解技术的基本原理是将一个大型矩阵分解成小矩阵,这些小矩阵可以更容易地进行计算和存储。
通常情况下,矩阵可以分解成若干个子矩阵的乘积形式,即$A=BC$,其中$A$为大矩阵,$B$为左边的小矩阵,$C$为右边的小矩阵。
二、常见方法1.奇异值分解(SVD)奇异值分解是一种将一个矩阵分解成三个正交矩阵的乘积形式的方法。
其中一个正交矩阵包含了原矩阵的奇异值,而另外两个正交矩阵则包含了原矩阵的左右奇异向量。
这种方法在数据降维、信号处理、模式识别等领域得到了广泛的应用。
2.QR分解QR分解是一种将一个矩阵分解成一个正交矩阵与一个上三角矩阵的乘积形式的方法。
这种方法在线性代数、统计学、数值分析等领域得到了广泛的应用。
3.LU分解LU分解是一种将一个矩阵分解成一个下三角矩阵与一个上三角矩阵的乘积形式的方法。
这种方法在求解线性方程组时得到了广泛的应用。
三、应用案例1.推荐系统推荐系统是一种基于用户历史行为和偏好的算法,通过对用户喜好和商品特征进行分析和预测,为用户推荐最可能感兴趣的商品。
矩阵分解技术可以对用户行为和商品特征进行分解,从而得到用户和商品的隐含特征向量,从而更好地实现推荐。
Netflix prize就是一个基于矩阵分解技术的推荐系统竞赛。
2.图像处理图像处理是一种将数字信号处理与计算机视觉相结合的技术。
在图像处理中,矩阵分解技术可以将图像矩阵分解成若干个小矩阵,从而更好地实现图像处理和压缩。
3.自然语言处理自然语言处理是一种将人类语言转化为计算机可处理的形式的技术。
在自然语言处理中,矩阵分解技术可以将句子矩阵分解成若干个小矩阵,从而更好地实现语言模型训练和文本分类。
综上所述,矩阵分解方法具有广泛的应用价值和理论意义,在学术界和工业界都得到了广泛的关注和应用。
矩阵分解的常用方法(全文)

矩阵分解的常用方法一、矩阵的三角分解定义:如果方阵可分解成一个下三角形矩阵L和上三角形矩阵U的的乘积,则称可作三角分解或LU分解。
定理1:高斯消元过程能够进行到底的充分必要条件是的前n-1个顺序主子式都不为零,即k ≠0,k=1,2,…,n-1。
(1)当条件(1)满足时,有L(n-1)…L(2)L(1)=U。
其中U为上三角形矩阵L(k)=lik=,i=k+1,…,n。
容易得出,detL(k)≠0(k=1,2,…,n-1),故矩阵L(k)可逆,于是有=(L(1))-1(L(2))-1…(L(N-1))-1U。
由于(L(K))-1是下三角形矩阵,故它们的连乘积仍然是下三角矩阵。
令L=(L(1))-1(L(2))-1…(L(N-1))-1=则得=LU。
即分解成一个单位下三角形矩阵L和一个上三角形矩阵U的的乘积。
二、矩阵的QR(正交三角)分解定义:如果实(复)非奇异矩阵能化成正交(酉)矩阵Q 与实(复)非奇异上三角矩阵R的乘积,即=QR,则称上式为的QR分解。
定理2:任何实的非奇异n阶矩阵可以分解成正交矩阵Q 和上三角形矩阵R的乘积,且除去相差一个对角线元素之绝对值等于1的对角矩阵D外,分解成=QR是唯一的。
矩阵QR的分解具体做法如下:令的各列向量依次为α1,α2,…,αn,由于是非奇异的,所以α1,α2,…,αn线性无关,按照施密特正交法正交化得到个标准的正交向量β1,β2,…,βn,且β=bαβ=bα+b22α2β=bα+b2nα2+…+bnnαn这里bij都是常数,且由正交化过程知bii≠0(i=1,2,…,n)写成矩阵形式有(β1,β2,…,βn)=(α1,α2,…,αn)β,即Q=B。
其中B=是上三角矩阵(bii≠0,i=1,2,…,n)。
显然B可逆,而且B=R-1也是上三角矩阵,由于Q的各列标准正交,所以Q 正交矩阵,从而有=QR。
三、矩阵的奇异值分解定理3 (奇异之分解定理)设是一个m×n的矩阵,且r ()=r,则存在m阶酉矩阵U和n阶酉矩阵V,使得UHV=(2),其中?撞=dig(1…r),且1≥2≥…≥r≥0。
lu分解例题及解析

lu分解例题及解析Lu分解法是一种将矩阵分解为低秩矩阵的分解方法,主要应用于数据分析、图像处理等领域。
下面以一个例题来介绍Lu分解法的具体步骤及解析过程。
假设有如下矩阵A:$$\begin{bmatrix}2 & 1 & 4 \\8 & 7 & 2 \\6 & 3 & 5 \\\end{bmatrix}$$步骤1:选取矩阵A的第一行作为初始行,将其作为下三角矩阵L的第一行,确定上三角矩阵U的第一行,即:$$L=\begin{bmatrix}1 & 0 & 0 \\l_{21} & 1 & 0 \\l_{31} & 0 & 1 \\\end{bmatrix},U=\begin{bmatrix}u_{11} & u_{12} & u_{13} \\0 & u_{22} & u_{23} \\0 & u_{32} & u_{33} \\\end{bmatrix}$$那么,可以得到:$$\begin{bmatrix}2 & 1 & 4 \\8 & 7 & 2 \\6 & 3 & 5 \\\end{bmatrix}=\begin{bmatrix}1 & 0 & 0 \\& 1 & 0 \\& & 1 \\\end{bmatrix}\begin{bmatrix}& & \\& & \\& & \\\end{bmatrix}$$因此,需要确定L和U的未知量l21、l31、u11、u12、u13、u22、u23和u33。
步骤2:用第一行的元素对矩阵A进行初等变换,使得第一列的下两个元素都为0,即:$$\begin{bmatrix}2 & 1 & 4 \\8 & 7 & 2 \\6 & 3 & 5 \\\end{bmatrix}\xrightarrow{(R_2-4R_1)}\begin{bmatrix}2 & 1 & 4 \\0 & 3 & -14 \\6 & 3 & 5 \\\end{bmatrix}$$此时,可得到:$$\begin{bmatrix}2 & 1 & 4 \\8 & 7 & 2 \\6 & 3 & 5 \\\end{bmatrix}=\begin{bmatrix}1 & 0 & 0 \\& 1 & 0 \\& & 1 \\\end{bmatrix}\begin{bmatrix}u_{11} & u_{12} & u_{13} \\0 & ? & ? \\0 & ? & ? \\\end{bmatrix}$$可以看出,u11=2,u12=1,u13=4。
低秩分解矩阵

低秩分解矩阵低秩分解矩阵是一种常用的矩阵分解方法,它可以将一个复杂的矩阵分解为两个或多个低秩矩阵的乘积形式。
这种分解方法在很多领域都有广泛的应用,如图像处理、推荐系统、自然语言处理等。
低秩分解矩阵的基本思想是通过降低矩阵的秩来近似表示原始矩阵,从而达到压缩数据、降维处理的目的。
在实际应用中,低秩分解矩阵可以提取矩阵中的主要特征,去除噪声和冗余信息,并且可以通过恢复分解矩阵来重建原始数据。
低秩分解矩阵的最常见形式是奇异值分解(Singular Value Decomposition,SVD)。
SVD将一个矩阵分解为三个矩阵的乘积,即A=UΣV^T,其中U和V是正交矩阵,Σ是对角矩阵。
Σ的对角元素称为奇异值,表示矩阵A在对应的特征向量上的投影长度。
通过保留奇异值较大的部分,可以实现对矩阵的低秩近似。
除了SVD,还有其他一些常用的低秩分解矩阵方法,如主成分分析(Principal Component Analysis,PCA)、非负矩阵分解(Non-negative Matrix Factorization,NMF)等。
这些方法在不同的情况下有不同的适用性,可以根据具体的问题选择合适的方法进行矩阵分解。
在图像处理中,低秩分解矩阵可以用于图像压缩和去噪。
通过将图像矩阵进行低秩分解,可以保留图像的主要特征,同时减少存储空间和传输带宽的需求。
在推荐系统中,低秩分解矩阵可以用于用户兴趣建模和商品特征提取,从而实现个性化的推荐。
在自然语言处理中,低秩分解矩阵可以用于词嵌入和语义分析,帮助计算机理解和处理自然语言。
尽管低秩分解矩阵在很多领域都有广泛的应用,但是它也存在一些局限性。
首先,低秩分解矩阵是一种近似表示方法,分解后的矩阵只能近似地表示原始矩阵,可能会损失一部分信息。
其次,低秩分解矩阵的计算复杂度较高,特别是对于大规模矩阵而言,计算时间和空间开销都会很大。
总的来说,低秩分解矩阵是一种重要的矩阵分解方法,具有广泛的应用前景。
模型压缩所有方法总结

模型压缩所有方法总结模型压缩是一种通过减少模型的大小和复杂性来提高模型效率和性能的技术。
在深度学习领域,模型压缩是一个非常重要的研究方向,可以帮助解决模型大小过大、计算资源消耗过高的问题。
本文将从不同角度总结模型压缩的各种方法,并探讨它们的优缺点。
一、参数剪枝参数剪枝是一种常见的模型压缩方法,它通过删除模型中冗余的参数来减小模型的大小。
具体而言,参数剪枝可以分为结构化剪枝和非结构化剪枝两种。
结构化剪枝是指按照一定规则对模型中的参数进行剪枝,例如剪枝掉绝对值较小的参数或者剪枝掉模型中的某些特定层。
非结构化剪枝则是直接删除模型中的部分参数,不考虑参数之间的依赖关系。
参数剪枝能够显著减小模型的大小,但会导致模型的稀疏性增加,进而增加计算资源的消耗。
二、低秩分解低秩分解是另一种常见的模型压缩方法,它通过将原始模型的参数分解成多个较低秩的矩阵相乘的形式来减小模型的大小。
低秩分解可以降低模型的参数数量,并且具有一定的正则化效果,有助于提高模型的泛化能力。
常见的低秩分解方法包括奇异值分解(SVD)和张量分解(Tensor Decomposition)等。
低秩分解方法能够显著减小模型的大小,但会引入一定的近似误差。
三、量化量化是一种将浮点数模型参数转换为较低精度的定点数或者离散数的方法。
常见的量化方法包括定点数量化、二值量化和三值量化等。
量化可以显著减小模型的大小,并且加速模型的推理过程。
然而,量化会引入一定的信息损失,从而降低模型的精度。
因此,在进行量化时需要权衡模型大小和精度之间的平衡。
四、知识蒸馏知识蒸馏是一种通过将一个复杂模型的知识迁移到一个简化模型中来减小模型的大小的方法。
具体而言,知识蒸馏通过将复杂模型的软标签作为训练简化模型的目标,从而提高简化模型的性能。
知识蒸馏方法能够显著减小模型的大小,但会引入一定的信息损失。
五、神经网络剪枝神经网络剪枝是一种通过删除神经网络中不重要的连接或节点来减小模型的大小的方法。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Find a polynomial close to p(x) with multiple roots.
• The Sylvester matrix of p(x) and p (x) will be a (2n − 1) × (2n − 1) matrix formed from the coefficients of p(x) and p (x). • For example, if n = 4 and p(x) = a4x4 + a3x3 + a2x2 + a1x + a0, then a4 a3 a2 a1 a0 0 0 0 a a a a a 0 4 3 2 1 0 0 0 a a a a a 4 3 2 1 0 Sp,p = 4a4 3a3 2a2 1a1 0 0 0 0 4a4 3a3 2a2 1a1 0 0 0 0 4a4 3a3 2a2 1a1 0 0 0 0 4a4 3a3 2a2 1a1 • p(x) has a multiple root ⇐⇒ det(Sp,p ) = 0. (resultant) • Find a low rank approximation to Sp,p with the above structure.
• The Sylvester matrix of p(x) and q (x) is an (m + n) × (m + n) matrix formed from the coefficients of p(x) and q (x). • For example, if m = 3, n = 2, p3 0 = q2 0 0 p2 p3 q1 q2 0 p1 p2 q0 q1 q2 p0 p1 0 q0 q1 0 p0 0 0 q0
5
Problem Statement II
• Consider a data matrix D = D + N , where D is a structured low rank matrix and N is a noise matrix. • Consider structures of the form D = – Examples: a b Hankel: c d e b c d e f c d e f g d e f g h e p3 0 f g , Sylvester: q2 h 0 i 0 p2 p3 q1 q2 0 p1 p2 q0 q1 q2 p0 p1 0 q0 q1 0 a f p0 0 , Toeplitz: g 0 h q0 i b a f g h c b a f g d c b a f e d c . b a αk Dk (αk are scalars, Dk are matrices).
Can we recover D given D?
6
Applications I
Let p(x), q (x) be polynomials of degree m and n with inexact coefficients.
Find a pair of polynomials with common roots close to p(x), q (x).
4
Problem Statement I
Let T be the set of all matrices with a certain structure. Adding a structural constraint to the previous problem gives:
min rank(X ) s.t.
• These prediction matrices have the Hankel structure, and in the absence of noise, have rank K , where K is the number of damped sinusoids.
9
Applications III
k
– In the above examples, Di, Dj = 0 if i = j . – Note: A, B = tr(A B ) = vect(A) · vect(B ) where vect(A) is the vector formed by stacking the columns of A on top of each other.
2
Motivation I
• Many recent papers involve solving problems of the form
min rank(X ) s.t.
A (X ) − b 2 Rp is a linear map, b ∈ Rp, and θ is a bound on the noise. • This problem comes up in applications such as – Matrix Completion: ∗ Recover a low-rank matrix given a subset of its entries. ∗ Netflix problem. – Image compression: ∗ Recover an image that can be well-approximated by a low-rank matrix. – Multivariate Regression: ∗ Estimate a prediction function, mapping covariates to output vectors. ∗ In certain settings, the prediction function is a low rank matrix.
Parameter Estimation of Damped Sinusoidal Signals with Noise
• To reduce the noise effect, these algorithms first use low rank matrix approximation on prediction matrix to obtain a less noisy set of observations y (n). • This set of observations is then used in the algorithms in place of y (n). • It has been shown (Razavilar, Li, Liu 1996), that if the Hankel property of the prediction matrix is also preserved when finding the low rank approximation, the performance of the parameter estimation can be improved. • Thus, a low rank Hankel approximation of Ay is found to obtain a less noisy set of observations y (n) before continuing with the algorithm.
Sp,q
• p(x), q (x) have a common root ⇐⇒ det(Sp,q ) = 0. • Find a low rank approximation to Sp,q with a Sylvester structure.
7
Applications II
Let p(x) be a polynomial of degree n with inexact coefficients.
3
Motivation II
• Many algorithms to solve such problems: – SDP approach: ∗ Relax problem to a semidefinite program (SDP). ∗ Many available solvers for SDPs (SeDuMi, SDPA, etc) – Singular Value Thresholding Algorithms ∗ Uses a version of fixed point iteration. ∗ Faster than using the SDP approach. `s, Shen) ∗ FPCA (Ma, Goldfarb, Chen), SVT (Cai, Cande • In some applications, want to recover a structured low rank matrix. • Motivated by the nonstructed low rank approximation problem, hope to develop good algorithms to do this.
An Introduction to Structured Low Rank Matrix Approximation
Cinna Wu Department of Mathematics University of California, Berkeley
1
Contents
• Motivation and Problem Statement • Applications • Theory • Methods of Computation • Future Work
• Several parameter estimation algorithms first involve forming prediction matrices from the observations y (n) (Kumaresan-Tufts (KT) algorithm, total least square (TLS) algorithm). y (0) y (1) ... y (L − 1) y (1) y (2) ... y (L ) . . . . Ay = . . . . . . . . y (L − 1) y (L) ... y (2L − 2)