矩阵计算与分析幂迭代法和逆幂迭代法
幂迭代法 evd

幂迭代法(Power Iteration)是一种用于求解特征值问题的数值方法,特别是在计算矩阵的特征向量或特征值时。
Eigenvalue Decomposition(EVD)即特征值分解,是一种将方阵分解为特征向量和特征值的方法。
在某些情况下,幂迭代法可以用来近似求解EVD问题。
幂迭代法的基本思想是重复地应用矩阵与向量的乘积,即:\[ v_{k+1} = Av_k \]其中\( A \) 是需要分解的方阵,\( v_k \) 是当前的迭代向量,\( v_{k+1} \) 是下一个迭代向量。
这个过程从任意的初始向量\( v_0 \) 开始,每一步都将上一个迭代向量与矩阵\( A \) 相乘。
幂迭代法通常用于寻找最大或最小特征值对应的特征向量。
在特征值分解的背景下,幂迭代法可以表述为:\[ A v = \lambda v \]其中\( \lambda \) 是特征值,\( v \) 是对应的特征向量。
幂迭代法的基本步骤如下:1. 选择一个初始向量\( v_0 \)。
2. 进行迭代:\( v_{k+1} = Av_k \)。
3. 检查收敛性,如果\( ||v_{k+1} - v_k|| \) 小于某个阈值或已达到预设的迭代次数,则停止迭代。
4. 计算特征值\( \lambda \) 为\( v^T Av \)。
当使用幂迭代法求解EVD时,目的是找到特征值和对应的特征向量,使得矩阵\( A \) 可以表示为:\[ A = Q \Lambda Q^T \]其中\( Q \) 是由特征向量组成的矩阵,\( \Lambda \) 是对角线上是特征值的对角矩阵。
需要注意的是,幂迭代法可能需要大量的迭代次数才能达到所需的精度,并且其收敛速度可能依赖于初始向量的选择。
在实际应用中,为了提高效率和准确性,通常会结合其他技术,比如随机化算法、预处理技术等。
此外,对于大型稀疏矩阵,还有专门的高效算法和软件包来处理特征值分解问题。
矩阵特征值及其计算方法的应用

矩阵特征值及其计算方法的应用矩阵特征值是线性代数中的重要概念,它在各个学科领域都有着广泛的应用,如物理学、工程学、计算机科学等。
本篇文章将针对矩阵特征值及其计算方法的应用进行探讨,以期帮助读者更好地理解和应用这一概念。
一、矩阵特征值的定义矩阵特征值是指一个矩阵在行列式中的解,也称为特征根。
对于给定的矩阵A,如果存在一个实数λ和非零向量v,使得:Av=λv,则称λ为矩阵A的特征值,v为相应的特征向量。
二、矩阵特征值的计算方法计算矩阵特征值的方法有很多种,其中比较常用的有特征值分解法、幂法、反迭代法等。
下面我们就来简单介绍一下这几种方法:1、特征值分解法:通过求解矩阵的特征值和特征向量,可以将任何一个n阶方阵A表示为:A=QΛQ^(-1),其中Λ是一个对角线矩阵,其对角线上的元素为矩阵A的特征值,Q是由矩阵A的n个特征向量组成的矩阵,并满足Q^(-1)Q=I。
2、幂法:幂法是求解矩阵最大特征值的一种方法。
具体步骤为:首先选择一个非零向量v0作为初始向量,然后进行迭代计算,直至收敛为止。
每次迭代时,都将向量v0乘以矩阵A,并将结果归一化得到下一个向量v1,即:v1=A·v0/||A·v0||。
重复这个步骤直到v1和v0之间的距离小于一定的阈值。
3、反迭代法:反迭代法是幂法的一种改进方法,用于求解矩阵的近似特征值及其对应的特征向量。
该方法的思想是对原问题进行转化,将求解矩阵最大特征值的问题转化为求解矩阵最小特征值的问题。
具体实现时,需要对矩阵A进行平移,使得新矩阵B=μI-A的特征值与B的特征值相互对应,在这个基础上再进行幂法的计算即可。
三、矩阵特征值的应用矩阵特征值由于具有很好的数学性质和广泛的应用场景,因此在各个领域都有着深入的研究和广泛的应用。
下面我们就针对几个具体场景来介绍一下矩阵特征值的应用。
1、图像处理:矩阵特征值在图像处理中有着重要的应用,通过分解一张图像对应的矩阵的特征值和特征向量,可以将原图像进行降维处理,从而达到图像压缩和图像增强的目的。
矩阵特征值问题的数值方法.

矩阵特征值问题的数值方法矩阵特征值设A 是n 阶矩阵,x 是非零列向量. 如果有数λ 存在,满足那么,称x 是矩阵A 关于特征值λ的特征向量. 很显然一般地有主特征值的乘幂迭代法设n 阶矩阵A 的n 个特征值按模从大到小排序为:n 其对应的n 个线性无关的特征向量分别为:设是任意一个非零的n 维向量,则:假设,构造一个向量序列:则:或者:当时:如果是矩阵A 的关于特征值的一个特征向量,特征值个特征那么对于任意一个给定的,也是特征值的特征向量。
所以,是对主特征值对应的特征向量的近似。
如果则会变得很大或者如果,则会变得很大,或者如果,则会变得非常小,在实际计算中,为避免这种情况的出现需对做归一化处理况的出现,需对做归一化处理:由:左乘得:所以主特征值的近似值所以主特征值的近似值:残余误差向量定义为:当迭代次数充分大时,残余误差将充分小。
逆乘幂法:类似地,也可以求模最小特征值和对应的特征向量特征向量。
上述问题的主特征值问题就是矩阵A 的模最小特征值问题。
结果,逆乘幂法的迭代公式为:在实际应用中,无需计算逆矩阵,但需求解线性系统实对称矩阵的基本定理:对实对称矩阵A ,一定存在一个正交相似变换使得为对角矩阵且其对角矩阵P ,使得:为对角矩阵,且其对角的特征值元素为矩阵A 的特征值。
相似变换:相似变换保持矩阵特征值(但不是特征向量)不变不变。
(证明略)正交相似变换:中。
正交相似变换的例子—坐标旋转:叫旋转矩阵。
容易验证:。
适当选择旋转角,可消去xy 项—得到对角阵D 。
矩阵特征值问题的数值方法实对称矩阵的基本定理再看下面的例子:令:O 平面的坐标旋转变换适当同样地有:。
则是在x-O-z 平面的坐标旋转变换。
适当x z —D 。
选择旋转角可消去z 项得到对角阵实对称矩阵的Jacobi 方法:全部特征值和特征向量根据实对称矩阵的基本定理,求得矩阵A 的全部特征值的关键是找到正交相似变换矩阵P 使部特征值的关键,是找到正交相似变换矩阵P ,使得为对角阵。
数值线性代数

1.求下三角阵的逆矩阵的详细算法。
[解] 设下三角矩阵L的逆矩阵为T我们可以使用待定法,求出矩阵T的各列向量。
为此我们将T按列分块如下:注意到我们只需运用算法1·1·1,逐一求解方程便可求得[注意] 考虑到内存空间的节省,我们可以置结果矩阵T的初始状态为单位矩阵。
这样,我们便得到如下具体的算法:算法(求解下三角矩阵L的逆矩阵T,前代法)3.证明:如果是一个Gauss变换,则也是一个Gauss 变换。
[解] 按Gauss变换矩阵的定义,易知矩阵是Gauss变换。
下面我们只需证明它是Gauss变换的逆矩阵。
事实上注意到,则显然有从而有4.确定一个Gauss变换L,使[解] 比较比较向量和可以发现Gauss变换L应具有功能:使向量的第二行加上第一行的2倍;使向量的第三行加上第一行的2倍。
于是Gauss 变换如下5.证明:如果有三角分解,并且是非奇异的,那么定理1·1·2中的L和U都是唯一的。
[证明] 设,其中都是单位下三角阵,都是上三角阵。
因为A非奇异的,于是注意到,单位下三角阵的逆仍是单位下三角阵,两个单位下三角阵的乘积仍是单位下三角阵;上三角阵的逆仍是上三角阵,两个上三角阵的乘积仍是上三角阵。
因此,上述等将是一个单位下三角阵与一个上三角阵相等,故此,它们都必是单位矩阵。
即从而即A的LU分解是唯一的。
7.设A对称且,并假定经过一步Gauss消去之后,A具有如下形式证明仍是对称阵[证明] 根据Gauss变换的属性,显然做矩阵A的LU分解的第一步中的Gauss变换为其中,将A分块为那么即由A的对称性,对称性则是显而易见的。
8.设是严格对角占优阵,即A满足又设经过一步Gauss消去后,A具有如下形式试证:矩阵仍是严格对角占优阵。
由此推断:对于对称的严格对角占优矩阵来说,用Gauss消去法和列主元Gauss消去法可得得同样的结果。
[证明] 依上题的分析过程易知,题中的于是主对角线上的元素满足(1)非主对角线上的元素满足由于A是严格对角占优的,即故从而(2)综合(1)和(2)得即,矩阵仍是严格对角占优阵。
第九章矩阵特征值和特征向量的计算

从而:
容易验证:
9.2 幂法的加速与降阶
考虑A-λ0I,因它与A之间特征值有关系:μi=λi-λ0,且特征向量不变, 则:
因为此时:
假定最大特征值λ1和最大特征向量V1已求出,并令A(1)=A,现构造:
9.3 反幂法
反幂法用来求A的按模最小的特征值。思想是A与A-1的特征值互为倒数, 用幂法求A-1的最大特征值。
或写为:
一般的计算公式:
处理对称矩阵,下列正交化方法更为有效:
平行迭代法也可用来求按模最小的p个特征值和特征向量:
9.5 QR算法 1、基本步骤:
令A=A1,对A1进行正交分解:
QR算法产生了一个矩阵序列{Ak},它有两个基本性质: (1)、矩阵序列{Ak}中的每一个矩阵都与A相似:
(2)、若令Hk= Rk Rk-1…. R1则有:
2、QR算法的收敛性问题:
2、定理9.1:假设
2、QR算法举例:求下面矩阵特征值
现用QR算法求解其特征值,首先令A1=A,用Schmidt正交化方法分解:
把A代替A重复上面过程,计算11次得:
9.6 Jacobi算法
其中,D是对角矩阵,它的对角元素是矩阵A的特征值,Jacobi方法 实质上是找一个正交矩阵V,使A正交化。设:
(2)、置k=1,μ=0 (3)、求xr=> λ,| xr |= (4)、计算 Y=X/ λ X=AY
max xi
1 i n
(5)、若| λ- μ|< ε,输出λ,X,停机,否则转步骤6 (6)、若k<N,k+1=>k,,μ=0, λ=>μ,转步骤3;否则输出失败信息
4、例2:用幂法求矩阵
解:取初始向量Y(0)=(1,1,1)T,用前面公式
matlab计算特征值用的方法

matlab计算特征值用的方法特征值是矩阵理论中的一个重要概念,它在信号处理、图像处理、机器学习等领域有着广泛的应用。
在Matlab中,我们可以使用不同的方法来计算矩阵的特征值。
本文将介绍几种常用的特征值计算方法,并对它们的优缺点进行比较。
1. 特征值的定义在线性代数中,对于一个n阶方阵A,如果存在一个数λ和一个非零向量x,使得Ax=λx成立,那么λ称为A的特征值,x称为A的特征向量。
特征值和特征向量可以帮助我们理解矩阵的性质和行为。
2. 特征值计算的方法2.1 特征值分解法特征值分解是最常用的计算特征值的方法之一。
它将一个矩阵分解为特征值和特征向量的乘积的形式。
在Matlab中,我们可以使用eig函数进行特征值分解。
例如,对于一个3x3的矩阵A,我们可以使用以下代码计算它的特征值:```A = [1 2 3; 4 5 6; 7 8 9];[V, D] = eig(A);```其中,V是特征向量矩阵,D是特征值矩阵。
特征值按照降序排列,对应的特征向量按列排列。
2.2 幂迭代法幂迭代法是一种基于特征值的大小差异的方法。
它通过迭代计算矩阵的幂,最终得到矩阵的最大特征值及其对应的特征向量。
在Matlab中,我们可以使用eigs函数进行幂迭代计算。
例如,对于一个对称矩阵A,我们可以使用以下代码计算它的最大特征值:```A = [1 2 3; 2 4 5; 3 5 6];[V, lambda] = eigs(A, 1);```其中,V是特征向量,lambda是最大特征值。
2.3 QR算法QR算法是一种迭代算法,通过不断迭代矩阵的QR分解,最终得到矩阵的特征值。
在Matlab中,我们可以使用eig函数结合qr函数进行QR算法的计算。
例如,对于一个对称矩阵A,我们可以使用以下代码计算它的特征值:```A = [1 2 3; 2 4 5; 3 5 6];[V, D] = eig(A);```其中,V是特征向量矩阵,D是特征值矩阵。
求矩阵特征向量的三种方法

求矩阵特征向量的三种方法特征向量是线性代数中一个重要的概念,用于描述矩阵变换作用后不改变方向的向量。
在本文中,将介绍矩阵特征向量的三种求解方法:特征值分解法、幂迭代法和雅可比方法。
一、特征值分解法特征值分解法是求解矩阵特征向量最常用的方法之一,其基本思想是将矩阵分解为特征向量和特征值的乘积形式。
特征值分解法的步骤如下:1.对于一个n×n的矩阵A,首先求解其特征方程:,A-λI,=0,其中λ为特征值,I为单位矩阵。
2.解特征方程得到所有的特征值λ1,λ2,...,λn。
3.将每个特征值代入特征方程,得到对应的特征向量。
特征向量满足(A-λI)X=0,其中X为特征向量。
特征值分解法的优点是求解过程简单、直观,但在实际运算中,特征值分解法可能由于求解特征方程而导致计算量大、耗时长。
二、幂迭代法幂迭代法是一种迭代算法,用于求解矩阵特征向量。
幂迭代法的基本思想是通过不断迭代,逐渐逼近矩阵的特征向量。
幂迭代法的步骤如下:1.随机选择一个向量作为初始向量X(0),并进行归一化处理。
2.根据迭代公式X(k+1)=AX(k)求解下一次迭代的特征向量。
3.重复步骤2直到特征向量收敛。
一般通过判断向量的变化是否小于设定的阈值来确定是否收敛。
幂迭代法的优点是收敛速度快,但受到初始向量的选择的影响,可能不能找到所有的特征向量。
三、雅可比方法雅可比方法是一种基于矩阵相似变换的求解特征向量的方法。
雅可比方法的基本思想是通过一系列的正交相似变化,逐渐将矩阵变换为对角线形式,从而得到特征向量。
雅可比方法的步骤如下:1.初始化D为单位矩阵,将矩阵A进行复制得到副本B。
2. 在矩阵B中寻找绝对值最大的非对角元素(b_ij),将其所在行列的元素,使其变为0。
3.利用一系列的旋转变换R(i,j)乘以矩阵D和B,得到新的矩阵D和B',使得B'中新的非对角元素b_i'j'为0。
4.重复步骤2和步骤3直到矩阵B变为对角线形式。
求矩阵特征值方法

求矩阵特征值方法特征值是线性代数中一个重要的概念,用于描述矩阵的性质和变换特征。
求矩阵特征值的方法有很多种,包括直接求解特征值方程和使用特征值分解等。
下面将介绍这些方法的原理和具体步骤。
1. 直接求解特征值方程直接求解特征值方程是一种常见的求解矩阵特征值的方法。
对于一个n阶矩阵A,特征值方程的定义为:det(A-λI) = 0其中,det表示矩阵的行列式,λ是特征值,I是单位矩阵。
通过求解这个特征值方程,可以得到矩阵A的所有特征值。
具体步骤如下:1) 将矩阵A减去λ倍的单位矩阵I,形成一个新的矩阵B=A-λI。
2) 计算矩阵B的行列式,即det(B)。
3) 将det(B)等于0,得到一个关于λ的方程,即特征值方程。
4) 求解方程,得到矩阵的特征值。
2. 特征值分解特征值分解是将一个矩阵表示为特征向量和特征值的乘积的形式。
特征值分解的基本思想是,将一个矩阵A分解为一个特征向量矩阵P和一个对角矩阵D的乘积,其中P的列向量是A的特征向量,D的对角线上的元素是A的特征值。
具体步骤如下:1) 求解矩阵A的特征值和相应的特征向量。
2) 将特征向量按列排成一个矩阵P,特征值按对应的顺序排成一个对角矩阵D。
3) 验证特征值分解的正确性,即验证A=PD(P的逆矩阵)。
特征值分解具有很多应用,如对角化、对称矩阵的谱定理等。
3. 幂法幂法是求解矩阵特征值中的一种迭代方法,适用于对称矩阵或有且仅有一个最大特征值的情况。
幂法的基本思想是通过多次迭代得到矩阵A的一个特征向量,这个特征向量对应于矩阵A的最大特征值。
具体步骤如下:1) 初始化一个n维向量x0,可以是任意非零向量。
2) 进行迭代计算:xn=A*xn-1,其中A是待求特征值的矩阵。
3) 归一化向量xn,得到新的向量xn+1=xn/ xn 。
迭代的过程中,xn的方向趋向于特征向量,而xn的模长趋于特征值的绝对值。
当迭代次数足够多时,得到的向量xn就是特征值对应的特征向量。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
4.3.2 收缩方法
用幂法可求A的主特征值λ1,但不能求其他特征值. 现设|λ1| > |λ2| > |λ3| ≥ … ≥ |λn|.在求出λ1之后,用收 缩的方法来求λ2.
收缩的方法有多种,这里讨论一种以相似变换为基 础的方法.设λ1和x1已知,可找到一个Householder矩 阵H,使H x1 = k1e1 ,且有k1≠0.由Ax1=λ1x1,有
vk+1 ≈ α1λk1+1 x1 + α2λk2+1 x2
vk+2 ≈ α1λk1+2 x1 + α2λk2+2 x2
于是 vk+2 −(λ1 + λ 2)vk+1 + λ1λ 2vk
≈ [λk1+2 −(λ1 + λ 2)λk1+1 + λ1λ 2λk1 ]α1 x1
+ [λk2+2 −(λ1 + λ 2)λk2+1 + λ1λ 2λk2 ]α2 x2 = 0
=
λ1[1
+
O(
λ2 λ1
k
)]
→
λ1
k→∞
于是有
定理2 设矩阵 A∈Rn×n 有n个线性无关的特征向量, 其按模最大的特征值 λ1 满足
|λ1| > |λ2| ≥ |λ3| ≥ … ≥ |λn| 则对任意的非零向量 v0 (α1 ≠ 0),按下列方法构造向量序列
⎧u0 = v0
⎪⎪⎨umkk
= =
4.3 幂迭代法和逆幂迭代法
4.3.1 幂迭代法
在实际问题中,具体要求也有不同.某些应用场合通常不 需要知道矩阵的全部特征值和特征向量,而仅要求得到矩阵 的按模最大的特征值(或称为矩阵的主特征值)和相应的特 征向量,如线性方程组迭代解法的收敛性问题.有的则要求 全部特征值和特征向量.根据这2种不同要求,矩阵的特征值 和特征向量的计算方法也大体上分成2种类型.本章就此2种 类型介绍其中最常用的2 种方法 ⎯ 幂法和QR法.
lim (vk )i k→∞ (vk−1 )i
=
λ1
lim
k→∞
α1( x1 )i + (εk )i α1( x1 )i + (εk−1 )i
= λ1
这种由已知非零向量 v0 及矩阵的乘幂 Ak 构造向量序列{vk} 以计算 A的按模最大的特征值λ1的方法称为乘幂法,简称为幂 法.而定理的证明过程事实上已给出了幂法的实施步骤.
∴ vk = Akv0 = α1 Ak x1 + α2 Ak x2 + + αn Ak xn
= α1λk1 x1 + α2λk2 x2 + + αnλkn xn
∑ =
λk1(α1 x1
+
n i=2
αi
⎜⎛ ⎝
λi λ1
⎟⎞k ⎠
xi
)
(4)
∑ 同理
vk −1
=
λk1−1(α1 x1
+
n i=2
α
i
⎜⎛ ⎝
幂法主要用于求矩阵的按模最大的特征值和相应的特征向 量.它是通过迭代产生向量序列,由此计算特征值和特征向 量.其算法的思想基于如下结论:
定理1 设矩阵 A∈Rn×n 有n个线性无关的特征向量 xi (i =1, 2,…,n),其对应的特征值 λi (i =1, 2,…, n)满足
|λ1| > |λ2| ≥ |λ3| ≥ … ≥ |λn| (1)
HAH −1e1 = λ1e1 即HAH −1的第一列为λ1e1,其中e1=(1,0, … ,0)T∈C n 记
A2
=
HAH −1
=
⎜⎜⎝⎛
λ1 0
b1T B2
⎟⎟⎠⎞
其中B2为n −1阶方阵,它显然有特征值λ2 , … , λn.
在|λ2| > |λ3|条件下,可用幂法求B2的主特征值λ2和主
特征向量y2 ,其中B2 y2 = λ2 y2.设A2 z2 = λ2 z2,为求
说明vk+2 , vk+1 , vk 三个向量大体上线性相关,令 p = − (λ1 +λ2), q = λ1λ2,则有 vk+2 + pvk+1 + q vk ≈ 0 .
选定2个分量代入上述关系,构成二阶线性方程组,解出p , q,然后再验证 p , q 对vk+2 , vk+1 , vk的其余分量是否也满足线性 关系方程,若满足,则再将 p , q 代入方程 λ2 + pλ + q = 0 就 可求得矩阵 A的按模最大的一对复特征值λ1 , λ2.
所以对任意的非零向量 v0都可用xi (i =1, 2,…,n)线性表示,即
v0 = α1 x1 + α2 x2 + + αn xn 假定 α1 ≠ 0
⎧v1 = Av0
用A构造向量序列
⎪⎪v2 = Av1 = A2v0 ⎨
⎪⎪vk = Avk−1 = Akv0 ⎩
∵ Axi = λ i xi ⇒ Ak xi = λki xi i = 1,2, , n
A的对应于λ1 , λ2的近似特征向量为vk+1 − λ2vk ,vk+1 − λ1vk . 根据以上的讨论,在用乘幂法进行计算时,当k充分大时, 检 查是否出现下列三种情况之一:
(Ⅰ) (vk+1 )i /( vk )i 趋近于某一常数; (Ⅱ) (vk+2 )i /( vk )i 趋近于某一常数; (Ⅲ) vk 的波动不规律,但相继的三个向量vk+2 , vk+1 , vk 之 间满足vk+2 + pvk+1 + q vk ≈ 0 . 若是,就可求出 A的按模最大的特征值和相应的特征向量.
出z2,设α为待定常数,y为n −1维向量,则
z2
=
⎜⎛ ⎝
α ⎞⎟ y⎠
,
⎩⎨⎧λB12αy
+ b1T y = λ2y
(1) 任取一个初始非零向量 v0 .
⎧u0 = v0
(2) 构造迭代序列
⎪⎪⎨mukk
= =
Avk −1 max(uk
)
⎩vk = uk / mk
k = 1,2,
(4.3)
式中用记号max(u)表示向量u 的绝对值最大的分量,从而有
迭代
u1 = Au0 = Av0
u2
=
Av1
=
A2v0 max( Av0 )
于是当 k → ∞ 时 , 有 : (1)当 λ1 > 1时 , (vk )i → ∞ ;
(2)当 λ1 < 1时 , (vk )i → 0 . 分量的变化太大,使得计算过程可能产生溢出.为了克服这
一不足,通常采用规范化迭代方式.具体做法为:把迭代向量 uk的最大分量化为1,于是得乘幂法的计算步骤如下:
(3) |λ1| = |λ2|,但 λ1=ρe iθ,λ2 =ρe −iθ,即λ1 , λ2为一对共轭复特 征值,且|λ1| > |λ3| ≥ … ≥ |λn|,则对任意初始向量
v0 = α1 x1 + α2 x2 + + αn xn 假定 α1 ≠ 0 , α2 ≠ 0
当 k 充分大时有 vk ≈ α1λk1 x1 + α2λk2 x2
n i=2
αi
(λi λ1
)k
xi
+
n i=2
α
i
(
λi λ1
)k
) xi
))
∑∑ =
α1 x1 + max(α1 x1
i
n =2
α
i
(
λi λ1
)k
+
n i=2
α
i
(
λi λ1
xi )k
xi
)
→
x1 max(
x1
)
k→∞
这说明规范迭代向量序列收敛到按模最大特征值对应的特征向 量.
同理,可得到
∑∑ ∑∑ mk
规范化
v1
=
u1 max(u1 )
=
Av0 max( Av0
)
v2
=
u2 max(u2 )
=
A2v0 max( A2v0 )
uk
=
Avk −1
=
Akv0 max( Ak−1v0 )
vk
=
uk max(uk )
=
Akv0 max( Akv0 )
∑∑ 则有
vk
=
Akv0 max( Akv0 )
=
λk1(α1 x1 + max(λk1(α1 x1
λi λ1
⎟⎞ k −1 ⎠
xi )
由于 λi < 1 (i = 2,3, , n) , 故对足够大的k , 有 λ1
vk = λk1(α1 x1 + εk ) vk−1 = λk1−1(α1 x1 + εk−1 ) (5)
式中 εk−1 , εk ∈ Rn , 且当 k → ∞ 时 , εk−1 , εk → 0 .当( x1 )i ≠ 0 时有
=
max(uk ) =
=λ1mmaaxx⎢⎢⎢⎢⎣⎡(mαa1 xx1(λλ+k1k1(−iα1=n(21αxα11ix(+1λλi+1i=n)2kiα=nx2iiα()λλi (1i λλ)k1i
max(α1 x1
+
n i=2
αi
(
λi λ1
)k
−1
xi
)
xi ) )k −1
xi
⎤ ⎥ ⎥ ))⎥⎥⎦