计算方法-5.2幂法与反幂法
数值分析幂法和反幂法

数值分析幂法和反幂法数值分析中的幂法和反幂法是求解矩阵最大特征值和最小特征值的常用方法。
这两种方法在许多数值计算问题中都有着广泛的应用,包括图像压缩、数据降维、谱聚类等。
幂法(Power Method)是一种迭代算法,通过不断迭代矩阵与一个向量的乘积,来逼近原矩阵的最大特征值和对应的特征向量。
其基本思想是,对于一个矩阵A和一维向量x,可以通过不断迭代计算Ax,Ax,Ax...,来使得向量x逼近最大特征值对应的特征向量。
具体的迭代过程如下:1.初始化一个向量x0(可以是单位向量或任意非零向量)2.令x1=Ax0,对向量进行归一化(即除以向量的范数)得到x13.重复步骤2,即令x2=Ax1,x3=Ax2...,直到收敛(即相邻迭代向量的差的范数小于一些阈值)为止4. 最终得到的向量xn就是A的最大特征值对应的特征向量在实际求解时,我们可以将迭代过程中的向量进行归一化,以防止数值溢出或下溢。
此外,为了提高迭代速度,我们可以选择使得xn与xn-1的内积大于0的方向作为迭代方向,这样可以使得特征值的模快速收敛到最大特征值。
幂法的收敛性是保证的,但收敛速度可能较慢,尤其是当最大特征值与其他特征值非常接近时。
此时可能需要使用一些改进的方法来加速收敛,例如Rayleigh商或位移策略。
相反,反幂法(Inverse Power Method)是求解矩阵的最小特征值和对应的特征向量的方法。
它的基本思想和幂法类似,但在每次迭代中,需要计算A和依其逆矩阵A-1的乘积。
迭代过程如下:1.初始化一个向量x0(可以是单位向量或任意非零向量)2.令x1=A-1x0,对向量进行归一化(即除以向量的范数)得到x13.重复步骤2,即令x2=A-1x1,x3=A-1x2...4. 最终得到的向量xn就是A的最小特征值对应的特征向量反幂法和幂法的区别在于迭代过程中乘以了A的逆矩阵,从而可以利用矩阵的特殊结构或性质来提高迭代速度。
同时,在实际求解时,可能需要将矩阵进行一些变换,以确保A-1存在或数值稳定性。
数值分析第四章矩阵特征值与特征向量的计算

192.9996. 973
12
➢ 幂法的加速—原点移位法
应用幂法计算矩阵A的主特征值的收敛速度主要
由比值 r=|2/1|来决定, 但当r接近于1时, 收敛可能
很慢. 这时可以采用加速收敛的方法.
引进矩阵
B=A-0I
其中0为代选择参数. 设A的特征值为1, 2, …, n, 则B的特征值为1-0, 2-0, …, n-0, 而且A, B
10
2 1 0 例 用幂法求矩阵 A 0 2 1
0 1 2
的按模最大的特征值和相应的特征向量.
取 x(0)=(0, 0, 1)T, 要求误差不超过103.
解 y 0 x 0 0 ,0 ,1 T ,
x 1 A 0 0 y , 1 , 2 T , 1 m x ( 1 ) ) a 2 , x
y(1)
x(1)
1
(0,0.5,1)T
x ( 2 ) A ( 1 ) 0 . 5 y , 2 , 2 . 5 T ,2 m x ( 2 ) ) 12 1a . 5 ,
y(2)
x(2) 2
(0.2,0.8,1)T
x ( 3 ) A ( 2 ) 1 . 2 y , 2 . 6 , 2 . 8 T ,3 m x ( 3 ) ) 2 a . 8 ,
x
(
k
1
)
Ax
(k )
A k1 x (0)
在一定条件下, 当k充分大时:
1
x ( k 1) i
x
( i
k
)
相应的特征向量为: x(k1) 4
➢ 幂法的理论依据
n
对任意向量x(0), 有 x(0) tiui ,
i1
x(k1) Ax(k) Ak1x(0)
幂法反幂法求解矩阵最大最小特征值及其对应的特征向量

幂法反幂法求解矩阵最大最小特征值及其对应的特征向量幂法和反幂法是求解矩阵最大最小特征值及其对应特征向量的常用方法。
在本文中,我们将详细介绍这两种方法的原理和具体实现。
一、幂法(Power Method)幂法是一种迭代算法,用于求解矩阵的最大特征值及其对应的特征向量。
其基本思想是通过多次迭代得到矩阵的一个特征值和特征向量的近似值,并使其逼近真实值。
幂法的原理如下:1.初始化一个非零向量b0作为初始特征向量;2.计算b0的归一化向量b0/,b0,得到新的向量b1;3.计算矩阵A和向量b1的乘积Ab1,得到新的向量b2;4.对b2进行归一化,得到新的向量b3;5.重复步骤3和步骤4,直到b的变化趋于稳定;6.计算矩阵A和向量b的乘积Ab,得到新的向量b;7.特征值的近似值λ=,Ab,/,b。
具体实现如下:1.初始化一个非零向量b0;2.迭代n次进行如下操作:a. 计算bn=A*bn-1;b. 将bn进行归一化,得到bn=bn/,bn;3. 计算特征值的近似值lambda=,A*bn,/,bn;4. 特征向量的近似值vbn=bn。
幂法的优点是计算简单、迭代次数少,但对于含有多个特征值接近的矩阵,可能会收敛到次大特征值。
二、反幂法(Inverse Power Method)反幂法是幂法的拓展,用于求解矩阵的最小特征值及其对应的特征向量。
其基本思想是通过多次迭代得到矩阵的一个特征值和特征向量的近似值,并使其逼近真实值。
反幂法的原理如下:1.初始化一个非零向量b0作为初始特征向量;2.计算b0的归一化向量b0/,b0,得到新的向量b1;3.计算矩阵A的逆矩阵Ai和向量b1的乘积Ai*b1,得到新的向量b2;4.对b2进行归一化,得到新的向量b3;5.重复步骤3和步骤4,直到b的变化趋于稳定;6.计算矩阵A的逆矩阵Ai和向量b的乘积Ai*b,得到新的向量b;7.特征值的近似值λ=,Ai*b,/,b。
具体实现如下:1.初始化一个非零向量b0;2.迭代n次进行如下操作:a. 计算bn=inv(A)*bn-1;b. 将bn进行归一化,得到bn=bn/,bn;3. 计算特征值的近似值lambda=,inv(A)*bn,/,bn;4. 特征向量的近似值vbn=bn。
《幂法和反幂法》课件

应用范围比较
总结词
幂法适用于求解特征值和特征向量,而反幂法适用于求解线性方程组和最小二 乘问题。
详细描述
幂法主要用于求解特征值和特征向量,在物理、工程和科学计算等领域有广泛 应用。反幂法适用于求解线性方程组和最小二乘问题,在统计学、机器学习和 数据分析等领域有广泛应用。
优缺点比较
总结词
幂法的优点在于能够求解特征值和特征向量,但缺点是计算复杂度高;反幂法的优点在于计算复杂度低,但缺点 是可能存在数值不稳定性。
幂法的性质
01
02
03
幂法具有高效性
相对于直接计算矩阵的幂 ,幂法可以大大减少计算 量和存储空间。
幂法具有收敛性
在适当的条件下,幂法能 够收敛到正确的矩阵幂的 结果。
幂法具有稳定性
在计算过程中,幂法能够 保持数值的稳定性,避免 误差的累积。
幂法的应用场景
数值分析
用于求解线性方程组、特 征值问题等数值计算问题 。
详细描述
幂法的优点在于能够精确求解特征值和特征向量,适用于需要高精度计算的情况。然而,由于其计算复杂度高, 对于大规模数据集可能效率较低。反幂法的优点在于计算复杂度相对较低,适用于处理大规模数据集。然而,反 幂法可能存在数值不稳定性,对于某些问题可能需要额外的数值稳定化技术。
04
幂法和反幂法的实现
05
幂法和反幂法的应用实 例
幂法在密码学中的应用
加密算法
幂法常被用于构造加密算法,如RSA算法。通过使用幂法,可以 快速地计算大数的幂次,从而实现高效的加密和解密过程。
密钥交换
在Diffie-Hellman密钥交换协议中,幂法被用于生成共享密钥,确 保通信双方安全地交换密钥。
数字签名
矩阵相乘的特征值分解

矩阵相乘的特征值分解1. 介绍矩阵相乘是线性代数中的重要概念,而特征值分解是矩阵分析中的一种重要方法。
本文将探讨矩阵相乘的特征值分解,包括其定义、性质、计算方法以及在实际应用中的意义。
2. 矩阵相乘的定义矩阵相乘是指将两个矩阵按照一定的规则进行乘法运算得到一个新的矩阵的操作。
设有两个矩阵A和B,A的维度为m×n,B的维度为n×p,那么A与B的乘积C的维度为m×p。
矩阵相乘的定义如下:C(i,j) = Σ(A(i,k) * B(k,j)),其中k的取值范围为1到n。
3. 特征值分解的定义特征值分解是将一个方阵分解为特征值和特征向量的乘积的过程。
对于一个n阶方阵A,如果存在一个非零向量x和一个标量λ,使得Ax = λx,其中λ是A的特征值,x是对应的特征向量,则A可以被特征值和特征向量的乘积表示为:A = PDP^(-1)其中P是由A的特征向量组成的矩阵,D是由A的特征值组成的对角矩阵。
4. 特征值分解的性质特征值分解具有以下性质:•方阵A可逆当且仅当其所有特征值都不为零。
•如果A是实对称矩阵,则其特征值都是实数。
•如果A是正定矩阵,则其特征值都大于零。
•如果A是对称矩阵,则其特征向量对应不同特征值的特征向量是正交的。
5. 特征值分解的计算方法特征值分解的计算方法有多种,常用的方法包括幂法、反幂法和QR方法等。
这些方法利用矩阵的特征值和特征向量的性质,通过迭代计算逼近矩阵的特征值和特征向量。
5.1 幂法幂法是一种迭代计算特征值和特征向量的方法。
其基本思想是通过迭代计算矩阵A的幂次向量序列,然后取序列中的向量的模长逼近最大特征值,并将向量归一化得到对应的特征向量。
5.2 反幂法反幂法是幂法的一种变形,用于计算矩阵A的最小特征值和对应的特征向量。
反幂法的基本思想是通过迭代计算矩阵A的逆的幂次向量序列,然后取序列中的向量的模长逼近最小特征值的倒数,并将向量归一化得到对应的特征向量。
幂法-反幂法求解矩阵最大最小特征值及其对应的特征向量

幂法-反幂法求解矩阵最大最小特征值及其对应的特征向量数值计算解矩阵的按模最大最小特征值及对应的特征向量一.幂法1. 幂法简介:当矩阵A 满足一定条件时,在工程中可用幂法计算其主特征值(按模最大)及其特征向量。
矩阵A 需要满足的条件为: (1) 的特征值为A i n λλλλ,0||...||||21≥≥≥>(2) 存在n 个线性无关的特征向量,设为n x x x ,...,,211.1计算过程:i ni i i u xx αα,1)0()0(∑==,有对任意向量不全为0,则有1111112211211111111011)()(...u u a u a u λu λαu αA x A Ax x k n n k n k k ni ik i i ni i i k )(k (k))(k αλλλλλα++++=+=+++≈?+++======∑∑Λ 可见,当||12λλ越小时,收敛越快;且当k 充分大时,有1)1111)11111λαλαλ===+++(k )(k k(k k )(k x x u x u x ,对应的特征向量即是)(k x 1+。
2 算法实现.,, 3,,1 , ).5()5(,,,,||).4();max(,).3()(max(;0,1).2(,).1()()()(停机否则输出失败信息转置若转否则输出若计算最大迭代次数,误差限,初始向量输入矩阵βλβεβλβλε←+←<<-←←=←←k k N k y x Ay x x abs x y k N x A k k k3 matlab 程序代码function [t,y]=lpowerA,x0,eps,N) % t 为所求特征值,y是对应特征向量k=1;z=0; % z 相当于λy=x0./max(abs(x0)); % 规范化初始向量x=A*y; % 迭代格式b=max(x); % b 相当于βif abs(z-b)<="">t=max(x);return;endwhile abs(z-b)>eps && k<n< p="">k=k+1;z=b;y=x./max(abs(x));x=A*y;b=max(x);end[m,index]=max(abs(x)); % 这两步保证取出来的按模最大特征值t=x(index); % 是原值,而非其绝对值。
数值分析 -第7讲_幂法和反幂法
则存在酉矩阵U使 定理9( Schur定理) 设A ∈ R n×n, r11 r12 L r1n r22 L r2n ∆ = R, U T AU = O rnn 其中rii (i = 1,2,L, n)为A的特征值.
定理10(实Schur分解) 设A ∈ R n×n, 则存在正交矩阵Q使 R11 R12 L R1m R22 L R2m , QT AQ = O Rmm 其中当Rii (i = 1,2,L, m)为一阶时Rii是A的实特征值,当Rii为 二阶时Rii的两个特征值是A的两个共轭复特征值.
xn xn
α1 x1 α1 x1
数值分析
不同范数选取下的特征值的计算
1. 取范数为2-范数时 取范数为2
T T yk −1uk = yk −1 Ayk −1 ⇒
α1 x1T α1 x1 A = λ1 α1 x1 2 α1 x1 2
对应的迭代公式
∀ u0 ∈ R n T η k −1 = uk −1uk −1 yk −1 = uk −1 η k −1 uk = Ayk −1 T β k = yk −1uk ( k = 1, 2,...)
数值分析
实际使用的迭代公式为: 实际使用的迭代公式为:
uk −1 yk −1 = u k −1 u = Ay k −1 k
于是可得
Auk −1 A2uk −2 A k u0 uk = = = L = k −1 uk −1 Auk −2 A u0
uk Ak u0 yk = = k uk A u0
数值分析
定义3 定义3 设A = (aij ) n×n , 令 n ( )i = ∑ | aij | (2) Di = {z | | z − aii |≤ ri , z ∈ C }, (i = 1,L, n) 1 r , j≠i 称Di为复平面上以aii为圆心以ri为半径的Gerschgorin圆盘.
幂法和反幂法
此例中比值为 2 2 . 1 3
例2:用幂法计算下面矩阵的主特征值及对应的特征向量。
解: 取初始向量 01
2 4 A 3 9
4 16
v u 1 1 1 ,按(3.7)迭代5次得到数据T如下 表: 00
1 11
11
ukT
6 15 36
k
vkT
(规范化向量)
5 0.1859 0.4460 1 8.156 19.57 43.88
v (i) k 1 v (i) k
1?
即两相邻迭代向量的对应非零分量的比值一定收敛到主特征值?
不一定. 先讨论以下情况:
情形1: 设n n阶实矩阵A的特征值i (i 1, 2, , n) 满足 1 2 n 且与i (i 1, 2, , n)相应的特征
向量x1 , x2 , , xn 线性无关。
v (1) 2
v (1) 1
0.41 ,
v (2) 2
v (2) 1
0.41666,
v (1) 3
0.41260,
v (2) 3
0.41249,
v (1) 2
v (2) 2
v (1) 4
v (1) 3
0.41263,
v (2) 4
v (2) 3
0.41263,
问题:是否任何矩阵的幂法,当k比较大时,一定有
故按模特征值为:
1 43.88 对应的特征向量为:
u1 0.1859 0.4460 1.0000T
例3 用幂法求矩阵 的主特征值和主特征向量.
1 1 0.5 A 1 1 0.25
0.5 0.25 2
解 : 取初始向量u0 (1,1,1)T , 按(3.2)的计算结果如表9 1。
幂法与反幂法
幂法与反幂法1 功能 幂法是一种计算矩阵主特征值(矩阵按模最大的特征值)及对应特征向量的迭代方法, 特别是用于大型稀疏矩阵。
反幂法用来计算矩阵按模最小的特征值及其特征向量,也可用来计算对应与一个给定近似特征值的特征向量。
2算法描述2.1 幂法(1)取初始向量u)0((例如取u )0(=(1,1,…1)T ),置精度要求ε,置k=1. (2)计算v )(k =Au )1(-k ,m k =max(v )(k ), u )(k = v )(k / m k(3)若| m k = m 1-k |<ε,则停止计算(m k 作为绝对值最大特征值1λ,u)(k 作为相应的特征向量)否则置k=k+1,转(2) 2.2 反幂法(1)取初始向量u )0((例如取u )0(=(1,1,…1)T),置精度要求ε,置k=1. (2)对A 作LU 分解,即A=LU(3)解线性方程组 Ly)(k =u )1(-k ,Uv )(k =y )(k (4)计算m k =max(v )(k ), u )(k = v )(k / m k(5)若|m k =m 1-k |<ε,则停止计算(1/m k 作为绝对值最小特征值n λ,u)(k 作为相应的特征向量);否则置k=k+1,转(3).3 Matlab 程序的实现3.1 幂法function [m,u]=pow(A,ep,N)%A 为矩阵;ep 为精度要求;N 为最大迭代次数;m 为绝对值最大的特征值;u 为对应最大特征值的特征向量。
N=100;ep=1e-6;n=length(A);u=ones(n,1);index=0;k=0;m1=0;while k<=Nv=A*u;[vmax,i]=max(abs(v));m=v(i);u=v/m;if abs(m-m1)<epindex=1;break;endm1=m;k=k+1;end输入:A=[7 3 -2;3 4 -1;-2 -1 3];[m,u]=pow(A,1e-6) Enter结果:m = 9.6056u =1.00000.6056-0.39444.2 反幂法function[m ,u]=pow_inv(A,ep,N)%A为矩阵;ep为精度要求;N为最大迭代次数;m为绝对值最大的特征值;u为对应最大特征值的特征向量。
数值分析幂法和反幂法
数值分析幂法和反幂法数值分析中,幂法(Power method)和反幂法(Inverse Power method)是求解矩阵的特征值和特征向量的两种常用方法。
它们都是通过迭代过程逼近特征值和特征向量。
1.幂法:幂法是求解矩阵的最大特征值和对应的特征向量的一种迭代方法。
幂法的原理是通过迭代过程,将一个任意选择的初始向量不断与矩阵相乘,使其逼近对应最大特征值的特征向量。
幂法的迭代公式为:$x^{(k+1)} = \frac{Ax^{(k)}}{\,Ax^{(k)}\,}$幂法的迭代过程是不断对向量进行归一化,使其逐渐逼近最大特征值对应的特征向量。
当迭代次数足够多时,可以得到非常接近最大特征值的估计。
2.反幂法:反幂法是幂法的一种变形,用于求解矩阵的最小特征值和对应的特征向量。
反幂法的原理是通过迭代过程,将一个任意选择的初始向量不断与矩阵的逆相乘,使其逼近对应最小特征值的特征向量。
反幂法的迭代公式为:$x^{(k+1)} = \frac{A^{-1}x^{(k)}}{\,A^{-1}x^{(k)}\,}$反幂法的迭代过程同样是不断对向量进行归一化,使其逐渐逼近最小特征值对应的特征向量。
当迭代次数足够多时,可以得到非常接近最小特征值的估计。
3.收敛性分析:幂法和反幂法的收敛性分析与矩阵的特征值分布有关。
对于幂法而言,如果矩阵$A$的最大特征值是唯一的,并且其他特征值的绝对值小于最大特征值的绝对值,那么幂法是收敛的,而且收敛速度是指数级的。
对于反幂法而言,如果矩阵$A$的最小特征值是唯一的,并且其他特征值的绝对值大于最小特征值的绝对值,那么反幂法是收敛的,而且同样是指数级的收敛速度。
4.实际应用:幂法和反幂法在实际中广泛应用于各个领域,例如物理、工程、计算机科学等。
比如在结构力学中,幂法可以用来求解结构的自振频率和相应的振型;在电力系统中,反幂法可以用来求解电力系统决定性特征值,例如功率稳定性的最小特征值。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
u2k , u2k 1
分别收敛到两个数,且绝对值不同。
2016/8/14
17
定理8 (1)设 A R n n 有n个线性无关的特征向量; (2)设A特征值满足 | 1 || 2 | | n |,
则有
1 ( x1 )i ( k 1 )i 1 , ((vk )i 0) 1 ( x1 )i ( k )i (v k 1 )i lim 1 k (v ) k i
这种由已知的非零向量v0和矩阵A的乘幂构造向量序列vk ,以计 算矩阵A的按模最大特征值及其相应特征向量的方法称为幂法。
[ i x i
k 1 i 1
r k 1
i 1
r
i k i ( ) xi ] 1 i r 1
n
[ i xi k ]
n
i 1
r v k i k li m k i xi lim k 0, 从而 k 其中 k i ( ) xi ,且 k i 1 1 i r 1
(1)若:
2016/8/14
x1 , 1 0 x 1 uk x1 , 1 0 x1
1 2 n
u2k , u2k 1
分别收敛反号的两个数
u k 收敛
16
(2)若:
1 2 3 n , 1 2
2016/8/14 4
当k =2,3,„ 时, k vk Avk 1 A v0
k k 11 x1 22 x2 nn xn )
k
2 k nn kk k ( ) x [ 1 x1 2 ( ) x2 ( ) x n n 2 n n] 1 11 1
可以看出
0 , 1 1 k , vk , 1 1
因此,若序列收敛慢的话,可能造成计算的溢出或归0
2016/8/14 13
3. 幂法的改进 用幂法计算A的主特征值及对应的特征向量时,如果 1 1 , (或 1 1) ,迭代向量的各个不等于零的分量将随 k 而趋 于无穷(或趋于零),这样造成计算机中的“溢出”。为了 克服这个问题,利用向量的方向与长度无关这一性质,将迭 代向量的长度规范化(“规一化”)以改进幂法。 所谓向量长度规范化 ,就是将向量的分量同除以一个常数 , 使 向量长度为1,向量长度有多种度量法,可以采用 || || 或 || ||2, max( v ) || v || max | (v )i |
n (3)幂法: v0 ai xi 0, ( 1 0), vk Avk 1 , ( k 1,2,); i 1
则
(a ) lim
k
k 1
vk
1 x1 ;
(v k 1 )i (b) lim 1。 k (v ) k i
| 1 || 2 | | n | ,即1为强占优。求矩阵的主特征值 1 及对应
的特征向量。
2016/8/14 3
首先讨论 1及x1与{vk }关系
{ x1 ,, xn } 线性无关 ,即 { x1 ,, xn } 为Rn中一个基,于是对任意 n v 的初始向量 v0 R 且 v0 0 有展开式。 ( 0 用 { xi }的线性组合表示)
§ 5.2 幂法与反幂法
矩阵按模的最大特征值排列往往表现为阈值。如:矩 阵的谱半径。幂法就是一种求矩阵按模最大特征值的方法, 它是最经典的方法。
适合于计算大型稀疏矩阵的主特征值(按模最大的特征 值)和对应的特征向量,也称乘幂法。 优点: 方法简单
2016/8/14
理论依据:迭代法的收敛性
1
问题的提法:
所以:
2016/8/14
1 vk 1 / vk
6
特征向量乘以任意非零常数仍对应于同一特征值的特征向量
k v k Av k 1 A v 0 , k 1,2,
因此,幂法是一种迭代方法。
2 l i m k 1 x1 且收敛速度由比值 r | | 确定。 所以有 k 1 1 vk
1
vk 因此,当k充分大时, k 接近于与 1 对应的特征向量的某个 1 r 线性组合 i xi( 1 , 2 ,, r 不全为零) 。
i 1
2016/8/14 11
例:求矩阵A的按模最大的特征值
A 1 5
解
k 0 1 2 3 4
1 4
1 6
1 5
可取10.41263 ,v1(0.017451,0.014190)T
2016/8/14 12
在幂法中,我们构造的序列
k k 2 n k x2 n xn vk 1 1x1 2 1 1
n v0 i xi (且设 1 0 ) i 1
则 v1 Av0 A(1 x1 2 x2 n xn )
1 Ax1 2 Ax2 n Axn
11 x1 22 x2 nn xn
1.A 特征值中 1为强占优,即 | 1 || 2 | | n | 问题:
设 A (aij ) R ,其特征值为 i ,对应特征向量为 xi (i 1,, n),
n n
即 Axi i xi (i 1,, n) ,且 { x1 ,, xn } ,线性无关。特征值满足:
v1 Av0 , 2 v 2 A v0 ,
k vk A v0 ,
则有迭代向量序列{vk }及规范化向量序列 {uk } 。
2016/8/14 15
即
k k 2 x n x 1k x 1 1 2 n 2 n 1 1 uk k k 2 n k 1 1x1 2 x2 n xn 1 1
n n A ( a ) R 设 ,其特征值为 i ,对应特征向量为 xi (i 1,, n), ij 即 Axi i xi (i 1,, n),且 { x1 ,, xn } 线性无关。求矩阵A的主特
征值及对应的特征向量。
n 幂法的基本思想: 任取一个非零初始向量 v0 R 且 v0 0 ,
| 1 || 2 | | r || r 1 | | n | ,求矩阵的主特征值 1 及对应
的特征向量。
2016/8/14 10
n n 对任意的初始向量 v0 R , 且 v0 0, 有 v0 i xi ,
(且设 1 , 2 , , r 不全为零),则有 k vk Avk 1 A v0
k k n x 1k x 1 x 1 1 2 2 n n 1 uk k k n x 1k x 1 x 1 1 2 2 n n 1
即相邻迭代向量分量的比值收敛到主特征值 1,且收敛速度由 2 2 |来度量,r 越小收敛越快, 当 r | | 1 而接近于1时,收 比值 r | 1 1 敛可能很慢。
2016/8/14 8
定理7:
n n A R (1)设 有n个线性无关的特征向量;
(2)设A的特征值满足 | 1 || 2 | | n |;
取v0=(1,0)T ,计算vk=Avk-1, 结果如下
(vk)1 1 0.25 0.10250 0.042292 0.017451 (vk)2 0 0.2 0.083333 0.034389 0.014190 0.41 0.41260 0.41263 0.41665 0.41267 0.41263 (vk)1 / (vk-1)1 (vk)2 / (vk-1)2
2016/8/14
5
1 0
则k足够大时,有
k vk 1 1x1
k 1 vk 1 1 1x1 1vk
说明,当k充分大时,有 特征向量1x1。 vk
k 1
1x1,或
vk
k 1
越来越接近
可见 vk , vk 1 几乎仅差一个倍数 1
其次讨论主特征值 1 的计算。
若(vk )i 表示 vk 的第i个分量,则相邻迭代向量的分量的比值为
k vk 1 (1 x1 k )
2016/8/14 7
k 1 ( v k 1 )i 1 [1 ( x1 )i ( k 1 )i ] k 1 [1 ( x1 )i ( k )i ] (vk )i
由矩阵A的乘幂构造一向量序列
称 {vk }为迭代向量。
2016/8/14
v1 Av0 v Av A2v 1 0 2 vk 1 Avk Ak 1v0 (k 0,1,, n)
2
(1)幂法:
矩阵A有n个线性无关的特征向量x1,x2, ,xn, 相应的特征值为1,2, ,n
2016/8/14
9
2. A的主特征值为实的r重根,即
| 1 || 2 | | r || r 1 | | n |
问题:
设 A (aij ) R ,其特征值为 i ,对应特征向量为 xi (i 1,, n),
n n
即 Axi i xi (i 1,, n) ,且 { x1 ,, xn } ,线性无关。特征值满足: