机器学习算法分享——《SVD》

合集下载

随机矩阵奇异值分解算法在机器学习中的应用优化与效果评估

随机矩阵奇异值分解算法在机器学习中的应用优化与效果评估

随机矩阵奇异值分解算法在机器学习中的应用优化与效果评估随机矩阵奇异值分解(Randomized Singular Value Decomposition,简称RSVD)算法是一种常用的矩阵分解方法,广泛应用于机器学习领域。

本文将探讨该算法在机器学习中的应用优化及效果评估。

一、介绍RSVD算法是基于奇异值分解(Singular Value Decomposition,简称SVD)算法的一种改进方法。

与传统的SVD算法相比,RSVD通过随机选择矩阵的列向量构建一个近似矩阵,然后再对该近似矩阵进行SVD分解,从而在减少计算量的同时,保持了较高的分解精度。

二、应用优化1.计算效率优化传统的SVD算法计算复杂度较高,随着数据规模的增大,计算时间会显著增加。

RSVD算法通过随机选择矩阵的列向量,将原始矩阵的规模缩小,从而减少了计算时间。

此外,RSVD还可以通过调节随机选择的列向量的数量来平衡计算效率和分解精度之间的关系。

2.精度保证优化尽管RSVD算法在计算效率上有较大优势,但在一些场景下可能会对分解精度产生影响。

为了保证结果的精度,可以适当增加随机选择的列向量的数量,提高近似矩阵的质量,从而达到更高的分解精度。

三、效果评估1.算法比较实验为了评估RSVD算法在机器学习中的效果,可以搭建实验环境,对RSVD算法与其他矩阵分解算法进行比较。

实验可以选择一些具有代表性的数据集,如Movielens数据集,通过对比不同算法在预测评分准确度和计算时间上的表现,来评估RSVD算法在推荐系统等应用中的优势。

2.性能对比评估除了算法比较实验外,还可以进行性能对比评估。

通过对比不同规模数据集上RSVD算法的计算时间和内存占用等指标,来分析RSVD算法的可扩展性和适用性。

四、总结RSVD算法作为一种优化的矩阵分解方法,在机器学习领域有着广泛的应用。

通过对矩阵的随机选择和近似构建,RSVD可以在保证一定分解精度的同时,显著提高计算效率。

在奇异值分解算法中提高计算精度的研究

在奇异值分解算法中提高计算精度的研究

在奇异值分解算法中提高计算精度的研究奇异值分解(Singular Value Decomposition,简称SVD)是一种常用的矩阵分解方法,广泛应用于数据降维、信号处理、推荐系统等领域。

然而,在实际应用中,由于计算机浮点数精度的限制,SVD算法可能会导致计算结果的精度损失。

因此,提高奇异值分解算法的计算精度成为了一项重要的研究课题。

为了提高SVD算法的计算精度,研究者们提出了多种方法。

其中一种常见的方法是使用迭代算法来近似计算奇异值。

传统的SVD算法需要对大型矩阵进行计算,而迭代算法可以通过多次迭代来逼近矩阵的奇异值。

这种方法不仅可以提高计算精度,还可以减少计算量,加快计算速度。

另一种提高SVD算法计算精度的方法是引入数值稳定性的技术。

在计算过程中,由于矩阵的条件数较大,可能会导致数值不稳定的情况。

为了解决这个问题,研究者们提出了一系列的数值稳定性技术,如正交变换、截断奇异值等。

这些技术可以有效地减小计算误差,提高计算精度。

此外,还有一些研究致力于优化SVD算法的计算过程。

例如,通过并行计算、分布式计算等技术,可以加快SVD算法的计算速度,提高计算效率。

同时,优化算法的计算过程也可以减少计算误差,提高计算精度。

除了上述方法,还有一些其他的研究方向可以用于提高SVD算法的计算精度。

例如,研究者们可以探索新的数值稳定性技术,或者改进现有的算法,以提高计算精度。

此外,还可以结合机器学习、深度学习等领域的方法,来优化SVD算法的计算过程。

总之,在奇异值分解算法中提高计算精度是一项具有挑战性的研究课题。

通过引入迭代算法、数值稳定性技术以及优化算法的计算过程,可以有效地提高SVD算法的计算精度。

未来,我们可以进一步探索新的方法和技术,以应对更加复杂的计算问题,提高奇异值分解算法的计算精度,并将其应用于更广泛的领域。

SVD

SVD

前言:上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。

在上篇文章中便是基于特征值分解的一种解释。

特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。

而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。

奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。

就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是一个重要的方法。

在机器学习领域,有相当多的应用与奇异值都可以扯上关系,比如做feature reduction的PCA,做数据压缩(以图像压缩为代表)的算法,还有做搜索引擎语义层次检索的LSI(Latent Semantic Indexing)另外在这里抱怨一下,之前在百度里面搜索过SVD,出来的结果都是俄罗斯的一种狙击枪(AK47同时代的),是因为穿越火线这个游戏里面有一把狙击枪叫做SVD,而在Google上面搜索的时候,出来的都是奇异值分解(英文资料为主)。

想玩玩战争游戏,玩玩COD不是非常好吗,玩山寨的CS有神马意思啊。

国内的网页中的话语权也被这些没有太多营养的帖子所占据。

真心希望国内的气氛能够更浓一点,搞游戏的人真正是喜欢制作游戏,搞Data Mining的人是真正喜欢挖数据的,都不是仅仅为了混口饭吃,这样谈超越别人才有意义,中文文章中,能踏踏实实谈谈技术的太少了,改变这个状况,从我自己做起吧。

前面说了这么多,本文主要关注奇异值的一些特性,另外还会稍稍提及奇异值的计算,不过本文不准备在如何计算奇异值上展开太多。

SVDSVD++实现推荐算法

SVDSVD++实现推荐算法

SVDSVD++实现推荐算法奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域⼴泛应⽤的算法,它不仅可以⽤于降维算法中的特征分解,还可以⽤于推荐系统,以及⾃然语⾔处理等领域。

我们⾸先回顾下特征值和特征向量的定义如下:Ax=λx其中A是⼀个n×n 求出特征值和特征向量有什么好处呢?我们可以将矩阵A特征分解。

如果我们求出了矩阵A的nA=WΣW−1其中W是这n ⼀般我们会把W的这n 这样我们的特征分解表达式可以写成A=WΣW T 注意到要进⾏特征分解,矩阵A必须为⽅阵。

那么如果A不是⽅阵,即⾏和列不相同时,我们还可以对矩阵进⾏分解吗?答案是可以,此时我们的SVD登场了。

SVD的定义 SVD也是对矩阵进⾏分解,但是和特征分解不同,SVD并不要求要分解的矩阵为⽅阵。

假设我们的矩阵A是⼀个m×nA=UΣV T 其中U是⼀个m×m 那么我们如何求出SVD分解后的U,Σ,V 如果我们将A的转置和A做矩阵乘法,那么会得到n×n(A T A)vi=λivi 这样我们就可以得到矩阵ATA 如果我们将A和A的转置做矩阵乘法,那么会得到m×m(AA T)ui=λiui 这样我们就可以得到矩阵AAT U和V我们都求出来了,现在就剩下奇异值矩阵Σ 我们注意到:A=UΣV T⇒AV=UΣV T V⇒AV=UΣ⇒Av i=σi u i⇒σi=Av i/u i 这样我们可以求出我们的每个奇异值,进⽽求出奇异值矩阵ΣSVD的⼀些性质  上⾯⼏节我们对SVD的定义和计算做了详细的描述,似乎看不出我们费这么⼤的⼒⽓做SVD有什么好处。

那么SVD有什么重要的 对于奇异值,它跟我们特征分解中的特征值类似,在奇异值矩阵中也是按照从⼤到⼩排列,⽽且奇异值的减少特别的快,在很多情况下,前10%甚⾄1%的奇异值的和就占了全部的奇异值之和的99%以上的⽐例。

上三角矩阵的奇异值分解_解释说明

上三角矩阵的奇异值分解_解释说明

上三角矩阵的奇异值分解解释说明1. 引言1.1 概述在数据分析和机器学习领域,奇异值分解(Singular Value Decomposition, SVD)是一种常用的矩阵分解方法。

它具有很多重要应用,可以用于降维、特征提取、矩阵逆运算等问题的求解。

上三角矩阵是一类特殊的矩阵形式,它具有特定的结构和性质,因此在进行奇异值分解时可以得到更高效和简化的计算方法。

1.2 文章结构本文将首先介绍奇异值分解的概念及其在上三角矩阵中的应用。

接着,我们将详细探讨上三角矩阵的特点,并介绍奇异值分解算法的步骤。

然后,通过实例分析与示范,我们将演示如何生成上三角矩阵并计算其奇异值分解结果,并对结果进行解读与应用讨论。

随后,我们将讨论奇异值分解在机器学习和工程领域中的应用案例与实际场景,并评估其在科学研究中的价值和作用。

最后,我们将总结主要研究结果,并展望未来相关领域的发展趋势。

1.3 目的本文的主要目的是介绍和解释上三角矩阵的奇异值分解方法,并探讨其在不同领域中的应用。

通过深入了解奇异值分解的原理、算法步骤以及实例演示,读者能够更好地理解和应用该方法。

此外,本文还将探讨奇异值分解在机器学习、工程和科学研究等领域中的实际应用价值,并对未来相关领域的发展趋势进行预测与展望。

2. 上三角矩阵的奇异值分解2.1 奇异值分解概念介绍奇异值分解(Singular Value Decomposition,简称SVD)是一种常用的矩阵分解方法,可以将一个矩阵拆解为三个矩阵的乘积,其中第一个矩阵包含了该矩阵的所有特征向量,第二个矩阵是一个对角矩阵,对角线上的元素称为奇异值,并按大小排列。

第三个矩阵包含了原始矩阵的列向量构成。

2.2 上三角矩阵特点上三角矩阵是一种特殊形式的方阵,在对角线以下的元素都为0。

上三角矩阵具有较好的性质,例如在进行奇异值分解时可以简化计算过程。

2.3 奇异值分解算法步骤奇异值分解算法主要包括以下步骤:1) 对给定的上三角矩阵进行转置,得到转置后的下三角矩阵。

使用奇异值分解进行矩阵分解的实际应用(Ⅰ)

使用奇异值分解进行矩阵分解的实际应用(Ⅰ)

奇异值分解(SVD)是一种重要的矩阵分解方法,它在数据分析、图像处理、推荐系统等领域有着广泛的应用。

在本文中,我们将探讨奇异值分解的原理及其在实际应用中的一些案例。

首先,让我们来了解一下奇异值分解的原理。

奇异值分解是将一个矩阵分解为三个矩阵的乘积的过程。

对于一个矩阵A,它的奇异值分解可以表示为A=UΣV^T,其中U和V是正交矩阵,Σ是一个对角矩阵,对角线上的元素称为奇异值。

通过奇异值分解,我们可以将原始矩阵表示为一些基础特征的线性组合,从而能够更好地理解和处理原始数据。

在数据分析领域,奇异值分解被广泛应用于降维和特征提取。

通过对数据矩阵进行奇异值分解,我们可以得到数据的主要特征向量和奇异值,从而可以选择保留最重要的特征,实现数据的降维处理。

这对于高维数据的可视化和分析非常有用。

此外,奇异值分解还可以用于去噪和数据压缩,通过去除奇异值较小的部分,可以实现对数据的有效压缩和去噪处理。

在图像处理领域,奇异值分解也有着重要的应用。

通过对图像矩阵进行奇异值分解,可以实现图像的压缩和去噪处理。

此外,奇异值分解还可以用于图像的特征提取和图像匹配,对于图像识别和图像处理有着重要的意义。

在推荐系统领域,奇异值分解被广泛应用于协同过滤算法。

通过对用户-物品评分矩阵进行奇异值分解,可以得到用户和物品的隐含特征向量,从而可以实现对用户和物品之间的关联关系进行分析和推荐。

奇异值分解在推荐系统中的应用,大大提高了推荐的准确性和效率。

除了上述领域之外,奇异值分解还在信号处理、文本挖掘、自然语言处理等领域有着重要的应用。

通过对大规模数据进行奇异值分解,可以实现对数据的有效分析和处理,为实际应用提供了强大的工具支持。

综上所述,奇异值分解作为一种重要的矩阵分解方法,具有广泛的实际应用价值。

在数据分析、图像处理、推荐系统等领域,奇异值分解都起着不可替代的作用。

随着大数据和人工智能技术的发展,奇异值分解的应用前景将会更加广阔,为实际问题的解决提供更多可能性。

稀疏矩阵svd分解 简化算法

稀疏矩阵svd分解 简化算法

稀疏矩阵svd分解简化算法
稀疏矩阵的SVD(奇异值分解)是一种重要的矩阵分解方法,
用于在矩阵中发现潜在的模式和结构。

在处理稀疏矩阵时,传统的SVD算法可能会面临计算复杂度高和存储空间需求大的问题。

因此,针对稀疏矩阵的SVD分解,通常会采用一些简化算法来提高效率和
降低计算成本。

一种常见的简化算法是截断SVD(Truncated SVD),它通过仅
计算最大的奇异值和对应的奇异向量来近似原始矩阵的SVD分解。

这种方法可以有效地降低计算复杂度,并且适用于处理大规模的稀
疏矩阵。

另外,截断SVD还可以用于降维和特征提取,对于机器学
习和数据分析等领域有着重要的应用价值。

除了截断SVD,还有一些其他简化算法,如随机SVD (Randomized SVD)和迭代SVD(Iterative SVD)。

这些算法通过
引入随机性或迭代优化的方式,来加速稀疏矩阵的SVD分解过程,
同时保持较高的精度。

总的来说,针对稀疏矩阵的SVD分解,简化算法在提高计算效
率和降低存储成本方面发挥着重要作用。

不同的简化算法适用于不
同的场景,可以根据实际需求选择合适的算法来进行稀疏矩阵的SVD分解。

基于SVD算法的智能新闻推荐系统的设计与实现

基于SVD算法的智能新闻推荐系统的设计与实现

基于SVD算法的智能新闻推荐系统的设计与实现【摘要】本文介绍了基于SVD算法的智能新闻推荐系统的设计与实现。

在分析了研究背景、研究意义和研究目的。

在首先介绍了SVD算法的原理和应用;然后详细讨论了智能新闻推荐系统的设计,包括数据预处理和推荐算法实现;最后对系统性能进行评估。

在总结了研究成果并提出了未来展望,探讨了技术实践意义。

通过本文的研究,可以为提高新闻推荐系统的推荐效果和用户体验提供参考和借鉴。

.【关键词】智能新闻推荐系统、SVD算法、数据预处理、推荐算法实现、系统性能评估、研究背景、研究意义、研究目的、研究总结、未来展望、技术实践意义1. 引言1.1 研究背景随着互联网的快速发展和信息量的爆炸式增长,人们面临着越来越庞大和复杂的信息量。

在这个信息爆炸的时代,如何有效地获取符合自己需求的信息成为了一个亟待解决的问题。

传统的新闻推荐系统往往只是基于用户的浏览历史或者兴趣标签进行推荐,很难做到个性化和精准推荐。

为了解决这一问题,人们开始尝试引入机器学习和数据挖掘技术,构建更加智能的新闻推荐系统。

本研究旨在借助SVD算法,构建一个智能新闻推荐系统,通过对用户浏览行为和新闻内容进行分析,实现个性化推荐,帮助用户快速获取信息,提高信息获取效率和质量。

1.2 研究意义智能新闻推荐系统的研究具有重要的理论和实践意义。

通过对用户的历史行为数据进行分析,可以挖掘用户的兴趣偏好,从而为用户推荐更加符合其需求的新闻内容,提高了用户体验和满意度。

智能推荐系统的应用可以帮助新闻媒体更好地了解用户行为和需求,为新闻内容的生产和推广提供参考。

智能推荐系统还可以促进新闻产业的发展,提升新闻传播效率,促进媒体产业的数字化转型升级。

对基于SVD算法的智能新闻推荐系统进行深入研究,具有重要的现实意义和广阔的应用前景。

1.3 研究目的研究目的是构建基于SVD算法的智能新闻推荐系统,旨在提高用户的阅读体验和信息获取效率。

通过利用SVD算法对用户行为数据和新闻内容进行分解和降维处理,系统能够更准确地理解用户的兴趣和偏好,从而为用户推荐个性化的新闻内容。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

线性空间
线性空间:“客观”存在的一种空间,对加法和数乘具 有封闭性。 向量:既有大小又有方向的量,同时没有起点 线性空间的基:描述空间内向量的一组“特殊”的向量, 空间内的所有向量都能被一组基的线性组合表示。 举例:直线就是一维的线性空间,平面就是二维线性空 间,三维立体空间就是三维线性空间。

线性空间的基
基实际就是一组人为规定的 参照物,用来描述空间内的 其他向量
x=(1,0), y=(0,1), c(5,3)=5x+3y, 则c在基x,y下的坐标为(5,3); a=(1.5,1.5), b=(2,0), c=(5,3)=2a+b, 则c基a,b下的坐标为(2,1);
线性映射&线性变换
' 1 1 1 ' 2 2 2 ' r r r
,
rn
思考1

特征值分解使用条件有限,仅适用于方阵,且要求是实 对称矩阵。 试想:如果需要分析的矩阵不是方阵(事实经常如此), 该怎样处理呢?

SVD简介 SVD:奇异值分解 SVD可以看做是特征值分解的一种推广,或者说特 征值分解可以看作是SVD的一种特例。当矩阵不是 方阵时同样适用,应用很广。
1 1
表示线性变换(矩阵)可以由其特征 根和特征向量还原
AV2
AV3 AQ
方阵还原

矩阵维度相当大时,可以用对角化变化的方法来逼近矩阵:
特征向量:矩阵的特征
A QQ
1 ' 1
特征值:各特征所占的 权重
1 0 v A v1 ,v2 ,,vn v' 0 n n ' ' ' =1v1v1 +2 v2 v2 + +n vn vn v v + v v + + v v
求解特征值
2 1 1 0 A ,A v = v v 0 1 0 1 1 0 -A v =0 0 1 -2 -1 v =0 0 -1 -2 -1 =0 0 -1 ( -2)( -1)=0,解得1 =2,2 =1
r
A A v
T
i
i vi, i = i
SVD分解(2)
A U AV
T T
U u1 ,u2 , ,um , ui :n 1向量 AV U AV V U A , , T T T T U A U U AV AV V v1 ,v2 , ,vn ,v1:n 1向量 AV U A Av1 , ,Avn = u1 , ,um A 1 Av1 , , Avn = u1 , ,um 0 0 Av1 =u1 1 Av =u r r r 0 r 0 0 = u1 1 , ,u2 r ,0 0 0

数据结构:


训练数据:


测试数据:


评测标准:均方误差根
CineMatch精度:0.951
数据示例1
数据示例 user1 user2 user3
movie1
movie2
movie3
(t11,r11)(t12,r12)(t13,r13) (t21,r21)(t22,r22)(t23,r23) (t31,r31)(t32,r32)(t33,r33)
求解特征向量
(1)1 =2的特征向量:
(2) =1的特征向量: 2 1 x x =1 0 1 y y 2 x +y x = y y 2 x +y =x x =-y y =y (k ,-k )为 =1的特征向量。(k 0)
矩阵运算(2)
m×n

n×m
=
m×n
m×m
n×m

=
n×n
矩阵运算(3)
a b x y z= c x a b c y = z
ax ay az bx by bz cx cy cz ax +by +cz
奇异值从大到小依 次排序
SVD分解(3)
U T A AV T
T T u1 u1 A T U A A= T T um um A 1 0 T AV 0 r 0 0 T 1v1 T u1 A r vT T r um A 0

SVD分解(1)
对任意矩阵A F
左奇异向量
mn
, rank ( A) r ,总可以取A的如下分解
右奇异向量
T A n
A U m V
其中U 、V 为正交矩阵 1 A 0 0 0 0 0 , 0 0
非零奇异值,从大 到小依次排序
线性变换(矩阵)A的特征值和对应的特征向量为: 1 1 =2,v1 = 0 =1,v = 1 2 2 -1 v1和v2不共线,因此可以作为平面空间内一组新的基。 特征值和特征向量的几何意义为把空间内的向量在 v1方向拉伸为原来的2倍,在v2方向拉伸为原来的1倍。
特征值的几何意义(3)
对角化变换(特征值分解)

如果线性变换的特征向量可以构成线性空间的一组基,那么有
A QQ
1
其中Q为特征向量组成的矩阵,为对角阵,对角 线上的元素为特征向量对应的特征值。 简证: Q V1 V2 V3 1 0 0 0 0 2 0 0 3 Q 1V1 2V2 3V3 = AV1 A AQQ QQ
2 1 x x =2 0 1 y y 2 x +y 2 x = y 2y 2 x +y =2 x y =0 y =2 y k ,0 为特征值2的特征向量。(k 0)
特征值的几何意义(1)
SVD算法解析
1 A 0 0
0 r 0
0 , 0 0
奇异值从大到小依 次排序
A A v v , =
T i i i i
i
可以看作是矩阵A的“平方”,而奇异值又是A“平方”阵的特征 根的开方,因此奇异值可以看作是矩阵A的“伪特征向量”,左奇 异向量可以看作矩阵A的“行特征向量”,右奇异向量可以看作是 矩阵A的“列特征向量”。
空间内的线性映射称之 为线性变换。
线性变换的矩阵表示
设x1 ,x2 , ,xn为数域P上线性空间V 的一组基,T 为V 的 线性变换。基向量的向可以被基线性表示出来,设 T x1 =a11 x1 +a12 x2 + +a1n xn T x2 =a21 x1 +a22 x2 + +a2 n xn , T x =a x +a x + +a x n n1 1 n2 2 nn n 用矩阵表示即为:
2 1 A , 0 1 x 2 x +y A = , y y 3 n = , -1 则n在线性变换A的作用下变为 2 3-1 5 n m= = -1 -1
A
特征值的几何意义(2)
a11 a1n A a n1 ann
T x1 ,x2 , ,xn T x1 , T x2 , , T xn x1 ,x2 , ,xn A
线性变换
二维空间上,对(x,y)做变换:
对应矩阵A
SVD
特征值 奇异值
Netflix Prize背景介绍

目标:

悬赏100万美元,将Netflix的推荐算法预测准确度提高10%。 用户ID、电影名称、日期、分数(1-5之间的整数) 48万用户对两万部电影的上亿条评分 包括一个与测试数据集分布相同的probe数据集,包含06年附近140多万条的 数据点,每个用户至少对9部电影进行了打分,服从正态分布。 280万个数据点(隐藏的,参赛选手不能获得,并且参赛选手自己也不能获得 自己模型作用在测试数据集上的最终效果)
数据示例2
黄色数据点代表probe数据集,用于参 赛选手自己做测试用
蓝色数据点代表最终的测试数据,对 参赛的人来说是隐藏的
movie movie movie movie movie movie movie movie movie movie 1 2 3 4 5 6 7 8 9 10 user1 user2 user3 user4 user5 user6 user7 user8 user9 user10 1 2 1 2 4 4 1 3 2 4 2 2 2 4 1 1 4 1 2 3 1 1 2 3 1 3 4 4 1 3 2 1 2 1 2 3 4 2 2 2 4 1 3 1 1 2 2 2 3 2 4 1 4 3 3 3 1 1 4 4 2 1 1 3 2 4 1 2 4 2 2 3 1 1 3 4 1 2 4 1 3 2 2 1 4 4 2 3 1 2 1 1 2 4 4 4 4 1 1 3
矩阵运算(1)
a11 a1n ka11 ka1n 数乘:k = a ka m1 amn m1 kamn 加法: a11 a1n b11 b1n a11 +b11 a1n +b1n + = a b a +b m1 amn m1 bmn m1 m1 amn +bmn 乘法: a11 a21 a 31 a12 b11 b12 a22 b21 b22 a32 c11 c12 b13 = c21 c22 b23 c31 c32 c13 c23 , cij =ai1b1 j +ai 2b j 2 c33
相关文档
最新文档