矩阵分解及其应用
矩阵的奇异值分解及其实际应用

矩阵的奇异值分解及其实际应用矩阵的奇异值分解(Singular Value Decomposition,SVD)是一种重要的矩阵分解方法,它在数据处理、信号处理、图像处理、自然语言处理等领域有广泛的应用。
一、SVD的定义和原理SVD是一种矩阵分解方法,把一个矩阵分解为三个矩阵的乘积,即:$A=U\Sigma V^T$其中,$A$为一个$m\times n$的矩阵,$U$为$m\times m$的酉矩阵,$\Sigma$为$m\times n$的对角矩阵,$V$为$n\times n$的酉矩阵,$T$表示转置。
$\Sigma$中的对角元素称为奇异值,是矩阵$A$的奇异值分解中的核心。
$\Sigma$中的奇异值按从大到小的顺序排列,它们可以用来表示原始矩阵$A$的主要特征。
在一些情况下,我们只需要保留前$k$个最大的奇异值对应的列向量组成的$\Sigma$和对应的$U$、$V$矩阵,即可以得到一个$k$维的近似矩阵,这种方法称为截断奇异值分解。
SVD的原理可以利用矩阵的特征值和特征向量的概念来解释。
对于一个$n\times n$的矩阵$A$,它可以表示为:$A=Q\Lambda Q^{-1}$其中,$Q$为特征向量矩阵,$\Lambda$为特征值矩阵,这里我们假设$A$是对称矩阵。
SVD可以看做是对非对称矩阵的特征值和特征向量的推广,它把矩阵$A$分解为$U\Sigma V^T$,其中,$U$矩阵的列向量为$AA^T$的特征向量,$V$矩阵的列向量为$A^TA$的特征向量,而$\Sigma$则由$AA^T$和$A^TA$的特征值的平方根构成。
二、SVD的应用SVD在数据处理、信号处理、图像处理、自然语言处理等领域都有广泛的应用。
1、数据处理在数据分析和数据挖掘中,我们常常需要对数据进行降维,以便于可视化和分析。
SVD可以对数据进行降维,并且保留了数据的主要特征。
例如,我们可以利用SVD对用户-物品评分矩阵进行降维,得到一个低维的用户-主题矩阵和一个低维的主题-物品矩阵,从而实现推荐系统。
矩阵的谱分解及其应用

矩阵的谱分解及其应用矩阵的谱分解是线性代数的一个重要分支,它可以将一个矩阵分解为多个简单的部分,从而简化计算。
本文将介绍矩阵的谱分解的原理及其在实际应用中的作用。
一、矩阵的谱分解原理矩阵的谱分解可以看作是将一个矩阵分解为若干个特殊矩阵的和的过程。
其中,特殊矩阵是由矩阵的特征向量和对应的特征值组成的。
具体来说,矩阵的特征向量指与该矩阵相乘后,结果为其常数倍的向量。
而对应的特征值则是常数倍的系数。
通过谱分解,我们可以得到一个矩阵的特征向量和对应的特征值,从而进一步简化计算。
例如,对于一些线性变换问题,可以通过谱分解将其转化为更简单的变换问题,从而得到更便于计算的结果。
二、矩阵的谱分解应用1、PCA降维PCA(Principal Component Analysis)是一种经典的降维方法,其核心就是利用矩阵的谱分解来求解数据的主成分。
具体来说,可以通过求解协方差矩阵的特征值和特征向量来得到数据的主成分。
由于特征值表示了数据在特征向量方向上的重要性,因此可以通过选取前k个特征值对应的特征向量,来将原始数据降维到k 维。
2、图像处理在图像处理中,矩阵的谱分解被广泛应用于图像去噪、图像增强等方面。
例如,在图像去噪中,可以构造一个低通滤波器,将高频成分去除,从而有效地去除图像中的噪声;在图像增强中,可以通过构造拉普拉斯矩阵和其特征向量来实现图像增强,使图像的轮廓更加清晰。
3、量子力学量子力学中存在着著名的谐振子问题,其本质就是一个矩阵的谱分解问题。
通过谐振子问题的求解,可以得到不同能级的波函数和能量本征值,从而进一步了解量子物理学的奥秘。
总结矩阵的谱分解是线性代数中非常重要的一个分支,它可以将复杂的计算问题转化为简单的特征值和特征向量计算问题。
在实际应用中,矩阵的谱分解被广泛应用于机器学习、图像处理、物理学等领域,为人们提供了高效、准确的计算方式。
矩阵的特征值分解及其应用

矩阵的特征值分解及其应用矩阵的特征值分解是矩阵理论中的重要分支,它在许多领域中都有着广泛的应用。
本文将介绍矩阵的特征值和特征向量的概念,特征分解的方法以及矩阵特征分解在数据降维和信号处理中的应用。
一、矩阵的特征值与特征向量矩阵是线性代数中的一个重要概念,在数学、工程、物理等许多领域都有广泛的应用。
一个$n \times n$的矩阵$A$可以看作是由$n$个列向量组成的,分别是$A$的第$1$列到第$n$列。
对于一个$n \times n$矩阵$A$,如果存在一个非零向量$\vec{x}$和一个实数$\lambda$,使得:$$ A \vec{x} = \lambda \vec{x} $$那么$\lambda$就是矩阵$A$的一个特征值,$\vec{x}$就是矩阵$A$对应于特征值$\lambda$的一个特征向量。
特别地,当$\vec{x} = 0$时,我们把$\lambda$称为矩阵$A$的零特征值。
二、特征分解的方法矩阵的特征值分解就是把一个矩阵分解成若干个特征值和特征向量的线性组合。
具体地说,对于一个$n \times n$的矩阵$A$,它可以写成:$$ A = Q \Lambda Q^{-1} $$其中$Q$是一个$n \times n$的可逆矩阵,$\Lambda$是一个$n \times n$的对角矩阵,它的对角线上的元素是矩阵$A$的特征值。
接下来我们来介绍一种求矩阵特征分解的方法,也就是QR算法。
QR算法是一种迭代算法,它的基本思路是通过相似变换把一个矩阵变成上三角矩阵,然后再通过相似变换把上三角矩阵对角线上的元素化为矩阵的特征值。
具体的步骤如下:1. 对于一个$n \times n$的矩阵$A$,我们可以先对它进行QR 分解,得到一个$n \times n$的正交矩阵$Q$和一个$n \times n$的上三角矩阵$R$,使得$A=QR$。
2. 计算$RQ$,得到一个新的$n \times n$的矩阵$A_1=RQ$。
矩阵分解的方法和应用

矩阵分解的方法和应用在机器学习和数据分析领域,矩阵分解是一个常用的技术手段。
通过对数据矩阵进行分解,我们可以得到数据的潜在特征和规律,从而更好地理解和利用数据。
本文将介绍矩阵分解的常见方法和应用。
一、基本概念矩阵分解是指将一个矩阵表示为若干个小矩阵(或向量)的乘积的形式。
这些小矩阵一般是具有特定结构或意义的,例如对称矩阵、正定矩阵、特征矩阵等等。
矩阵分解可以应用到各种场景,例如数据降维、矩阵压缩、矩阵重构、协同过滤等等。
二、矩阵分解的方法常见的矩阵分解方法有以下几种:1. 奇异值分解(SVD)奇异值分解是一种基础的矩阵分解方法。
它将一个矩阵分解为三个小矩阵的乘积形式:$A=U\Sigma V^T$,其中$U$和$V$是正交矩阵,$\Sigma$是奇异值矩阵。
通过特征值分解可以得到奇异值矩阵,从而实现矩阵分解。
奇异值分解可以用来进行数据降维和矩阵重构。
例如,我们可以将一个高维度的数据矩阵分解为低维度的奇异向量,从而实现数据降维;或者我们可以使用奇异向量重构原始的矩阵,从而实现数据压缩。
2. QR分解QR分解是一种将矩阵分解为正交矩阵和上三角矩阵的方法。
具体来说,对于一个矩阵$A$,可以分解为$A=QR$,其中$Q$是正交矩阵,$R$是上三角矩阵。
QR分解可以应用到求解线性方程组、估计模型参数等领域。
3. 特征值分解(EVD)特征值分解是指将一个方阵分解为正交矩阵和对角矩阵的乘积形式。
具体来说,对于一个方阵$A$,可以分解为$A=V\LambdaV^{-1}$,其中$V$是正交矩阵,$\Lambda$是对角矩阵,对角线上的元素就是矩阵$A$的特征值。
特征值分解可以用于矩阵压缩和数据降维。
三、矩阵分解的应用1. 推荐系统推荐系统是一种常见的应用场景,它可以根据用户历史行为和兴趣,向用户推荐可能感兴趣的物品。
矩阵分解可以应用到推荐系统中,其基本思路是利用用户对物品的评分矩阵,对其进行分解,得到用户和物品的特征向量,然后通过计算余弦距离等方法,计算出用户和物品之间的相似度,从而推荐给用户可能感兴趣的物品。
矩阵分解和特征值问题的应用

矩阵分解和特征值问题的应用矩阵分解和特征值问题是数学中的一大难题,但是这两个问题具有非常重要的应用价值。
在现代科技中,我们经常需要对海量数据进行处理和分析,这就需要用到矩阵分解和特征值问题的相关算法。
本文将简单介绍一下矩阵分解和特征值问题,以及它们在实际中的应用。
一、矩阵分解矩阵分解是指将一个矩阵拆分成若干个子矩阵的过程。
这个过程中,我们通常会选取一些基础矩阵作为拆分的单位,比如说向量、线性方程组等。
矩阵分解是一种非常重要的技术手段,它可以广泛应用于数据的处理和分析、信号的处理、图像的处理等领域。
在现代科技中,矩阵分解被广泛应用于机器学习、数据挖掘、语音识别、图像处理等领域。
以机器学习为例,矩阵分解被广泛应用于协同过滤算法中。
协同过滤算法是一种常用的推荐系统算法,它的基本原理是利用用户之间的相似性来推荐商品。
在协同过滤算法中,我们通常会将用户与商品之间的评分矩阵进行分解,然后利用矩阵分解的结果来预测用户对未评分商品的评分。
二、特征值问题特征值问题是指矩阵及其各个变换形式中的某些特征的求解问题。
特征值问题通常涉及对矩阵的本征方程求解,以及对矩阵的本征向量求解等。
特征值问题在数字图像处理、信号处理、模式识别、量子力学等领域中都有着重要的应用。
以数字图像处理为例,特征值问题被广泛应用于图像的分类和识别中。
在数字图像处理中,我们通常会将图像表示成一个矩阵的形式,然后利用特征值问题来提取出图像的特征信息。
这样一来,我们就可以把图像分类到相应的类别中,实现自动化的图像分类和识别。
三、应用举例矩阵分解和特征值问题都有着广泛的应用场景,下面我们分别介绍一下它们在几个具体领域中的应用。
1. 金融领域在金融领域中,矩阵分解和特征值问题被广泛应用于风险管理、投资组合优化等方面。
以风险管理为例,我们通常会把债券、股票等证券的收益率表示成一个矩阵的形式,然后利用矩阵分解和特征值问题来预测风险的大小。
2. 自然语言处理在自然语言处理领域中,矩阵分解被广泛应用于文本分类、情感分析等方面。
矩阵分解的原理及应用

矩阵分解的原理及应用1. 简介矩阵分解是一种数学方法,用于将一个矩阵拆分为多个子矩阵,以便更好地理解和处理复杂的数据结构。
通过矩阵分解,我们可以将原始数据表示为更简洁和易于处理的形式,从而方便进行各种分析和计算。
2. 矩阵分解的原理矩阵分解的原理基于线性代数的基本概念。
在矩阵分解中,我们将一个大矩阵拆分为若干个小矩阵,其中每个小矩阵都有特定的性质和结构。
这些小矩阵的组合可以恢复原始矩阵,并且在处理和分析数据时更加方便。
常见的矩阵分解方法包括:•LU分解:将一个矩阵分解为一个下三角矩阵和一个上三角矩阵,用于解线性方程组和计算行列式。
•QR分解:将一个矩阵分解为一个正交矩阵和一个上三角矩阵,用于解决线性方程组和最小二乘拟合问题。
•奇异值分解(SVD):将一个矩阵分解为三个矩阵的乘积,其中一个矩阵是正交矩阵,另外两个矩阵分别是对角矩阵,用于降低数据维度和特征提取。
3. 矩阵分解的应用矩阵分解在很多领域都有广泛的应用,下面列举了几个常见的应用场景。
3.1 机器学习在机器学习中,矩阵分解被广泛应用于推荐系统、降维和聚类等任务。
通过对用户-物品评分矩阵进行矩阵分解,可以得到用户和物品的隐含特征向量,进而进行用户推荐和相似物品发现等任务。
3.2 图像处理图像处理中的矩阵分解常用于图像压缩和去噪等任务。
例如,奇异值分解可以将一幅图像表示为若干个特征图像的加权和,通过只保留其中的重要特征图像,可以实现图像的压缩和降噪。
3.3 自然语言处理在自然语言处理中,矩阵分解常用于词嵌入和主题模型等任务。
通过将单词-上下文共现矩阵进行矩阵分解,可以得到单词和上下文的隐含特征向量,进而进行语义相似度计算和文本分类等任务。
3.4 数据挖掘矩阵分解在数据挖掘中也有广泛的应用。
例如,矩阵分解可以用于聚类分析,将数据矩阵分解为聚类中心和样本权重矩阵,从而实现数据聚类和异常检测等任务。
4. 结语矩阵分解是一种重要的数学方法,可以将复杂的数据结构拆分为更简洁和易于处理的形式。
矩阵的三角分解及其应用研究

矩阵的三角分解及其应用研究矩阵的三角分解是矩阵分析中的一种重要方法,它将矩阵分解为三角矩阵的乘积,具有广泛的应用。
本文将介绍矩阵的三角分解的原理和应用,并对其进行研究和探讨。
一、矩阵的三角分解原理矩阵的三角分解是将一个矩阵分解为三角矩阵的乘积的过程。
具体而言,对于一个n×n的矩阵A,我们可以将其分解为一个下三角矩阵L和一个上三角矩阵U的乘积,即A = LU。
其中,下三角矩阵L 的主对角线元素为1,上三角矩阵U的主对角线元素可以为0或非零。
矩阵的三角分解可以通过高斯消元法来实现。
具体而言,我们可以通过一系列的行变换将矩阵A化为一个上三角矩阵U,然后将这些行变换逆序应用到单位矩阵上,得到下三角矩阵L。
通过这样的过程,我们就得到了矩阵A的三角分解。
二、矩阵的三角分解应用研究矩阵的三角分解在线性代数和数值计算中有着广泛的应用。
下面将介绍其中的几个重要应用。
1. 线性方程组的求解矩阵的三角分解可以用于解线性方程组。
具体而言,对于一个形如Ax = b的线性方程组,我们可以将矩阵A进行三角分解,得到LU =A。
然后可以通过前代法和回代法分别求解Ly = b和Ux = y两个三角方程组,从而求得方程组的解x。
由于三角方程组的求解相对简单,因此矩阵的三角分解在求解线性方程组时具有较高的效率。
2. 矩阵的求逆矩阵的三角分解还可以用于求矩阵的逆。
具体而言,如果矩阵A可逆,那么我们可以将矩阵A进行三角分解,得到LU = A。
然后可以通过前代法和回代法分别求解Ly = e和Ux = y两个三角方程组,其中e为单位矩阵的列向量。
最终,我们可以得到矩阵A的逆矩阵。
3. 矩阵的特征值分解矩阵的三角分解还可以用于求矩阵的特征值和特征向量。
具体而言,对于一个对称矩阵A,我们可以将其进行三角分解,得到LU = A。
然后可以通过迭代法求解Ly = y和Ux = λy两个三角方程组,其中λ为特征值,y为特征向量。
通过这样的过程,我们可以得到矩阵A的特征值和特征向量。
线性代数中的矩阵分解与应用

线性代数中的矩阵分解与应用矩阵分解是线性代数中重要的概念,它可以将一个矩阵分解成多个简单的矩阵,从而方便我们进行运算和应用。
在本文中,我们将探讨矩阵分解的几种常见方法以及它们在不同领域的应用。
一、LU分解LU分解是最基本的矩阵分解方法之一,它将一个矩阵分解为一个下三角矩阵L和一个上三角矩阵U的乘积。
具体地说,给定一个矩阵A,LU分解将A分解为A=LU的形式,其中L为单位下三角矩阵,U 为上三角矩阵。
LU分解在求解线性方程组、矩阵求逆以及计算行列式等方面有广泛的应用。
二、QR分解QR分解是将一个矩阵分解为一个正交矩阵Q和一个上三角矩阵R 的乘积。
QR分解在很多数值计算问题中都有重要应用,比如最小二乘拟合、矩阵特征值计算以及信号处理等。
通过QR分解,我们可以将复杂的运算转化为简单的乘法和求解上三角矩阵的问题,从而提高计算效率。
三、奇异值分解(SVD)奇异值分解是将一个矩阵分解为一个正交矩阵U、一个对角矩阵Σ和另一个正交矩阵V的转置的乘积。
奇异值分解在数据降维、图像压缩、推荐系统等领域中被广泛应用。
通过奇异值分解,我们可以发现矩阵的特征结构,并根据特征值的大小选择保留重要信息,去除冗余信息,从而简化问题并提高计算效率。
四、特征值分解特征值分解是将一个方阵分解为一个由特征向量组成的矩阵和一个由对应特征值构成的对角矩阵的乘积。
特征值分解在矩阵的谱分析、信号处理、振动分析等领域有广泛应用。
通过特征值分解,我们可以得到矩阵的特征向量和特征值,从而研究矩阵的性质和行为。
矩阵分解在实际应用中具有重要意义。
例如,在机器学习中,矩阵分解可以应用于协同过滤算法,通过对用户与物品评分矩阵进行分解,可以发现用户和物品之间的潜在关联关系,从而实现个性化的推荐。
此外,矩阵分解还可以用于图像处理中的图像压缩和去噪,通过对图像矩阵进行分解,可以提取主要特征并减少数据量,从而节省存储空间和提高图像质量。
总结起来,线性代数中的矩阵分解是一种重要的数学工具,具有广泛的应用。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
《线性代数与矩阵分析》课程小论文矩阵分解及其应用学生姓名:******专业:*******学号:*******指导教师:********2015年12月Little Paper about the Course of "Linear Algebra and MatrixAnalysis"Matrix Decomposition and its ApplicationCandidate:******Major:*********StudentID:******Supervisor:******12,2015中文摘要将特定类型的矩阵拆解为几个矩阵的乘机称为矩阵的分解。
本文主要介绍几种矩阵的分解方法,它们分别是矩阵的等价分解、三角分解、谱分解、奇异值分解和 Fitting 分解等。
矩阵的分解理论和方法是矩阵分析中重要的部分,在求解矩阵的特征值、解线性方程组以及实际工程中有着广泛的运用。
因此,本文将介绍矩阵等价分解、三角分解、奇异值分解的理论运用以及三角分解的工程运用。
关键词:等价分解,三角分解,奇异值分解,运用AbstractMany particular types of matrix are split into the product of a matrix of several matrices, which is called decomposition of matrix. In this paper, we introduce some methods of matrix decomposition, which are equivalent decomposition, triangular decomposition, spectral decomposition, singular value decomposition, Fitting decomposition and so on. The decomposition theory and method of matrix is an important part of matrix analysis, which is widely used in solving the characteristic value, solving linear equations and the practical engineering. In this paper, we will introduce the theory of matrix equivalence decomposition, triangular decomposition, singular value decomposition and the engineering application of triangular decomposition.Key words:Equivalent Decomposition, Triangular Decomposition, Singular Value Decomposition, Application目录中文摘要 (1)ABSTRACT (1)1 绪论 (1)2 矩阵分解的常用方法 (1)2.1矩阵的等价分解 (1)2.2矩阵的三角分解 (2)2.2.1 矩阵的三角分解 (2)2.2.2 矩阵的正三角分解 (2)2.3矩阵的谱分解 (5)2.3.1 单纯形矩阵的谱分解 (5)2.3.2 正规矩阵与酉对角化 (6)2.3.3 正规矩阵的谱分解 (6)2.4矩阵的奇异值分解 (7)2.4.1 矩阵的奇异值分解(SVD分解) (7)2.5矩阵的FITTING分解 (7)3矩阵分解的理论应用 (8)3.1矩阵等价分解的理论应用 (8)3.2矩阵三角分解的理论应用 (8)3.3矩阵奇异值分解的理论应用 (9)4 矩阵分解在递推系统辨识中的应用 (10)4.1递推系统辨识中的困难 (10)4.1.1 病态问题 (10)4.1.2 效率和计算量问题 (10)4.2QR分解的实现方法 (11)4.2.1 GIVENS变换 (13)4.3递推算法 (13)5 结论 (18)6 参考文献 (18)1 绪论矩阵的分解是将一个矩阵分解为较为简单的或具有某种特性的若干矩阵的乘积,这是矩阵理论及其应用中比较常见的方法。
由于矩阵的这些特殊的分解形式,一方面反映了原矩阵的某些数值特性,如矩阵的秩、特征值、奇异值等;另一方面矩阵分解方法与过程往往为某些有效的数值计算方法和理论分析提供了重要的依据,因而使其对分解矩阵的讨论和计算带来极大的方便,这在矩阵理论研究及其应用中都有非常重要的理论意义和应用价值。
在实际应用中,利用矩阵的某些分解来解决一些实际的工程数学问题有明显的效果。
如计算某些特大、特殊矩阵时,矩阵的三角分解非常有作用,可以大大简化很多计算过程。
矩阵的QR (正交三角)分解在状态估计具有很好的计算效率。
谱分解作为一种强有力的工具,在处理矩阵等式和矩阵不等式的过程中有着非常重要的作用。
奇异值分解是研究数学的一种重要方法,并在最优化问题、特征值问题、广义逆矩阵计算、谱估计、控制理论等领域,有极其重要的作用。
矩阵的 Fitting 分解可看作是复矩阵的Jordan 分解在一般域上的推广,它在运筹与控制论方面有至关重要的作用。
2 矩阵分解的常用方法矩阵分解大致可以分为等价分解、三角分解、谱分解、奇异值分解和Fitting 分解等五大类。
2.1矩阵的等价分解定理 1.1:(等价分解)若m nA R⨯∈,则存在m 阶的可逆阵P 及n 阶可逆阵Q 使得r Pdiag(E 0)Q ,,其中r=rank(A) 。
证明:设x r+1,…,x n 是N(A)的基,将其扩充成R m 的基1,,,,r n x x x ,因为Ax 1,…,Ax r 是线性无关的,所以将其扩充成R m 的基11,,,,r r m Ax Ax y y +。
令[]11r r m P Ax Ax y y +=,并且[]110rAQ Ax Ax -=。
于是(,0)r A Pdiag E Q =。
定理 1.2:(满秩分解)若m nA R⨯∈,则存在列满秩阵BϵR mxr 和行满秩阵CϵR rxn 使得A BC =,其中r =rank (A )。
2.2矩阵的三角分解2.2.1 矩阵的三角分解(1)LU 分解三角分解法是将方阵分解成为一个上三角阵和一个下三角阵,这样的分解法称为LU 分解法。
定理2.1:(LU 分解)对一任意方阵n nA C ⨯∈,均可分解为两个三角阵的乘积,即:PA-LU,其中P 为置换阵,下三角形矩阵n nL C⨯∈,上三角形矩阵n nU C⨯∈。
定理2.2:方阵n nA C⨯∈,rankA n =,则A 可以作LU 分解的充要条件是A 的K 阶(K=1,2,…,n-1)的顺序主子式不为零。
定理2.3:方阵n nA C⨯∈,rankA r n =≤,A 的K 阶(K=1,2,…,r )的顺序主子式不为零,则可以作LU 分解(Doolittle 分解)。
证明:当矩阵的阶数为n 时,用数字归纳法来证。
当1n =时,结论显然成立。
假设对n-1阶矩阵结论成立,下面证明对于n 阶矩阵结论也成立。
将A 分块可以得A =[A n−1ECa nn ],令L 1=[E n−10CA n−1−11] 易见A =L 1[A n−1Ba nn −CA n−1−1B ]令a nn −CA n−1−1B =b ,由归纳假设有A n−1=L 2U 2,其中2L 为单位下三角阵,U 2为上三角阵。
于是A =L 1[L 2U2B 0b ]=L 1[L 2001][U 2L 2−1B 0b],令L =L 1[L 201],U =[U 2L 2−1B 0b],则L 为单位下三角阵,U 为上三角阵,故A LU =。
(2)对称阵的Cholesky 分解定理2.4:设A 为对称阵,则存在唯一分解:TA LL =,其中L 为单位下三角阵。
证明:由Doolittle 分解,A 有唯一分解:A LU =;则 A =LU =A T =U T L T ,即LU =U T L T ,有TL U =;所以 A =LL T 。
定理2.5:设A 为对称正定阵,则存在唯一分解:TA LDL =,其中L 为单位下三角阵,D 为对角线元素大于零的对角阵。
2.2.2 矩阵的正三角分解(1)QR 分解若n 阶实非奇异矩阵A 可以分解为正交矩阵Q 与实非奇异上三角矩阵R 的乘积,即A QR =,则称该分解式为矩阵A 的QR 分解;进而A 是m n ⨯列满秩矩阵,若A=QR ,其中Q 是m ×n 矩阵,TQ Q E =(称Q 为列正交矩阵),R 为非奇异上三角矩阵,也称为矩阵A 的QR 分解。
(ⅰ)利用Schmidt 正交化求矩阵的QR 分解Schmidt 正交化方法是矩阵的QR 。
分解最常用的方法,主要依据下面的两个结论: 结论2.6:设A 是n 阶实非奇异矩阵,则存在正交矩阵Q 和实非奇异上三角矩阵R 使A 有QR 分解;且除去相差一个对角元素的绝对值(模)全等于1的对角矩阵因子外,分解是唯一的。
结论2.7:设A 是m n ⨯m ×n 实矩阵,且其n 个列线性无关,则A 有分解A=QR,其中Q 是m ×n 实矩阵,且满足TQ Q E =,R 是n 阶实非奇异上三角矩阵该分解除去相差一个对角元素的绝对值(模)全等于1的对角矩阵因子外是唯一的。
(ⅱ)利用初等变换求矩阵的QR 分解矩阵的初等变换共有三种,其中把数域P 上矩阵的某一行(列)的k 倍加到另一行(列),这种初等变换称为第3种行(列)初等变换(其中k 是P 中任意一个数)。
结论2.8:设A 是一个m ×n 实矩阵,若A 是列满秩矩阵,则T A A 对称正定,因而TA A有唯一的三角分解,式T TA A LDL =,其中L 是单位下三角矩阵;D 是对角元全为正数的对角矩阵。
结论2.9:若m nA R⨯∈是一个列满秩矩阵,则A 总可经过一对第3种行和列的初等变换分解为A QR =的形式。
其中Q 是一个列正交矩阵,R 是一个非奇异上三角矩阵。
(ⅲ)利用Givens(吉文斯)变换求矩阵的QR 分解 一般地,在n 维Euclid 空间n R 中,令12e ,e ,,e n 是它的一个标准正交基,于是在平面i j e e ⎡⎤⎣⎦中的Givens 变换定义如下:定义2.10:设实数c 与s 满足221c s +=,称111111ij csT sc ⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥-⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦(i<j )为Givens 矩阵,也记作(,)ij ij T T c s =。