机器学习_降维算法

合集下载

机器学习算法

机器学习算法

机器学习算法机器学习算法是人工智能领域中的重要组成部分,通过使用大量数据和统计分析方法,让计算机能够从中学习并自主做出决策。

在现代科技的发展中,机器学习算法已经广泛应用于各个领域,如自然语言处理、图像识别、智能推荐等。

本文将从基本概念、常用算法及应用案例等多个方面介绍机器学习算法。

一、基本概念1.1 什么是机器学习算法是一种通过使用大量数据进行训练和学习的方法,以便计算机能够自动分析数据、从中获取知识,并基于该知识做出预测或决策。

它的核心思想是让计算机模仿人类的学习方式,通过从数据中提取特征、建立模型、优化参数等步骤,使计算机能够自主学习并不断提升性能。

1.2 机器学习算法的分类根据机器学习的任务类型,机器学习算法可以分为监督学习、无监督学习和强化学习三大类。

1.2.1 监督学习监督学习是最常见的机器学习任务,它的目标是通过给定的输入数据和对应的输出标签,让模型学习出一个函数,能够将输入映射到正确的输出。

监督学习算法主要包括回归和分类两种类型,如线性回归、决策树、支持向量机等。

1.2.2 无监督学习无监督学习是指在没有标签的情况下,根据数据本身的特点进行分析和学习。

它的目标是从数据中发现隐藏的结构、关系或模式,进而进行聚类、降维等任务。

无监督学习算法主要包括聚类、关联规则挖掘等,如K-means聚类算法、Apriori算法等。

1.2.3 强化学习强化学习是通过代理与环境进行交互学习的过程,通过试错和奖励机制来优化决策策略。

强化学习算法在模拟实验、自动驾驶、游戏等领域有广泛应用,著名的算法包括Q-learning、策略梯度等。

二、常用算法2.1 线性回归线性回归是一种监督学习算法,适用于解决连续型数值预测问题。

它通过建立一个线性模型,通过最小化残差平方和来拟合数据。

线性回归算法简单且易于理解,但对于非线性问题表现不佳。

2.2 决策树决策树是一种用于分类和回归的监督学习算法,它通过将数据划分成树状结构来做出决策。

机器学习有哪些算法

机器学习有哪些算法

机器学习有哪些算法机器学习是一种人工智能的分支,它通过让计算机系统自动学习和改进,从而提高其性能。

在机器学习中,有许多不同的算法可以用来训练模型并进行预测。

下面将介绍一些常见的机器学习算法。

1.监督学习算法监督学习是一种机器学习方法,其中模型从标记的训练数据中学习。

常见的监督学习算法包括:- 线性回归:用于预测连续值的算法,通过拟合数据点之间的线性关系来进行预测。

- 逻辑回归:用于预测二元分类问题的算法,通过将输入数据映射到一个概率范围内来进行预测。

- 决策树:用于预测分类和回归问题的算法,通过树状结构来表示决策规则。

- 支持向量机:用于分类和回归问题的算法,通过找到最佳的超平面来分隔不同类别的数据点。

2.无监督学习算法无监督学习是一种机器学习方法,其中模型从未标记的数据中学习。

常见的无监督学习算法包括:- K均值聚类:用于将数据点分成不同的簇的算法,通过最小化簇内的方差来确定簇的中心。

- 主成分分析:用于降维和数据可视化的算法,通过找到数据中的主要成分来减少数据的维度。

- 关联规则学习:用于发现数据中的关联规则的算法,通过分析数据中的频繁项集来找到规则。

3.强化学习算法强化学习是一种机器学习方法,其中模型通过与环境互动来学习。

常见的强化学习算法包括:- Q学习:用于解决马尔可夫决策过程的算法,通过学习最优策略来最大化长期奖励。

- 深度强化学习:结合深度学习和强化学习的算法,通过深度神经网络来学习价值函数。

总的来说,机器学习算法可以分为监督学习、无监督学习和强化学习三大类。

不同的算法适用于不同的问题和数据集,选择合适的算法对于模型的性能至关重要。

随着机器学习技术的不断发展,我们可以期待更多更高效的算法的出现,从而推动人工智能的发展。

无监督算法有哪些

无监督算法有哪些

无监督算法有哪些无监督学习(Unsupervised Learning)是和监督学习相对的另一种主流机器学习的方法,无监督学习是没有任何的数据标注只有数据本身。

无监督学习算法有几种类型,以下是其中最重要的12种:1、聚类算法根据相似性将数据点分组成簇k-means聚类是一种流行的聚类算法,它将数据划分为k组。

2、降维算法降低了数据的维数,使其更容易可视化和处理主成分分析(PCA)是一种降维算法,将数据投影到低维空间,PCA可以用来将数据降维到其最重要的特征。

3.异常检测算法识别异常值或异常数据点支持向量机是可以用于异常检测。

异常检测算法用于检测数据集中的异常点,异常检测的方法有很多,但大多数可以分为有监督和无监督两种。

监督方法需要标记数据集,而无监督方法不需要。

无监督异常检测算法通常基于密度估计,试图找到数据空间中密集的区域外的点。

一个简单的方法是计算每个点到k个最近邻居的平均距离。

距离相邻点非常远的点很可能是异常点。

还有很多基于密度的异常检测算法,包括局部离群因子(Local Outlier Factor,LOF)和支持向量数据描述(Support Vector Domain Description,SVDD)。

这些算法比简单的k近邻方法更复杂,通常可以检测到更细微的异常[21]。

大多数异常检测算法都需要进行调整,例如指定一个参数来控制算法对异常的敏感程度。

如果参数过低,算法可能会漏掉一些异常。

如果设置过高,算法可能会产生误报(将正常点识别为异常点)。

4、分割算法将数据分成段或组分割算法可以将图像分割为前景和背景。

这些算法可以在不需要人工监督的情况下自动将数据集分割成有意义的组。

这个领域中比较知名的一个算法是k-means算法。

该算法通过最小化组内距离平方和将数据点分成k组。

另一种流行的分割算法是mean shift算法。

该算法通过迭代地将每个数据点移向其局部邻域的中心来实现。

mean shift对异常值具有较强的鲁棒性,可以处理密度不均匀的数据集。

机器学习中的常见算法及应用场景

机器学习中的常见算法及应用场景

机器学习中的常见算法及应用场景机器学习是近年来非常热门的研究领域,许多人都将其视为未来科技的发展方向之一。

而在机器学习中,算法的选择和应用是非常关键的环节。

本文将介绍机器学习中常见的算法及其应用场景。

一、监督学习算法监督学习是机器学习中最常见的一类算法,其主要的任务是根据已知的输入-输出数据,预测新的输入所对应的输出值。

常见的监督学习算法包括线性回归、逻辑回归、决策树、支持向量机(SVM)等。

1. 线性回归算法线性回归是一种最基本的监督学习算法,其目的是根据已知的一组特征值和对应的结果,得到一个线性方程,用于预测新的输入所对应的输出值。

常见的应用场景包括房价预测、销售预测等等。

2. 逻辑回归算法逻辑回归是一种广义的线性回归模型,常用于二分类问题。

其目的是通过一个sigmoid函数将输入映射到0~1之间,表示分类的概率。

逻辑回归常被用于信用评分、欺诈检测、广告点击率预测等场景。

3. 决策树算法决策树是一种基于树结构的分类器,通过对数据集的分裂,构造一个树形结构来进行分类。

其适用于离散型数据和连续型数据,常被用于金融、医学、电商等领域。

4. 支持向量机(SVM)算法支持向量机是一种二分类模型,其决策边界是一个超平面,使其距离最近的样本点到该超平面的距离最大。

它被广泛应用于图像识别、自然语言处理等领域。

二、无监督学习算法无监督学习算法的任务是从无标记数据中找到数据内在的结构或规律,常见的算法包括聚类、降维等。

1. K均值聚类算法K均值聚类是一种常见的聚类算法,其目的是将样本划分成K个簇,簇内样本相似度高,不同簇样本相似度低。

常被用于市场分析、医学影像分析等领域。

2. 层次聚类算法层次聚类是一种自下而上或自上而下的聚类算法,其目标是将样本逐步合并或分裂成若干个簇。

常被用于生物学、社会科学、自然语言处理等领域。

3. 主成分分析(PCA)算法PCA是一种线性降维算法,它通过线性变换,将高维数据映射到一个低维空间上,保留样本的主要信息。

降维分析报告

降维分析报告

降维分析报告引言降维分析是一种在机器学习和数据科学领域广泛应用的方法,它可以帮助我们从高维数据中提取主要特征,减少数据的维度,并保留尽可能多的有用信息。

在本报告中,我们将介绍降维分析的基本概念和常用算法,并通过一个具体的案例来示范如何应用降维分析。

降维分析的背景和意义在现实生活中,许多问题都涉及大量的特征或变量,这些特征可能存在冗余、噪声或不具有明确的解释。

此时,使用原始高维数据进行分析和建模将导致过拟合、维度灾难等问题。

因此,通过降维分析可以将复杂的高维数据转化为更加简洁、易理解的低维表示,帮助我们更好地理解数据并提取重要特征。

常用的降维分析方法主成分分析(PCA)主成分分析是一种常用的无监督降维算法,它通过线性变换将原始数据投影到新的正交特征空间,使得数据在新特征空间上的方差最大化。

通过计算主成分之间的协方差矩阵的特征值和特征向量,我们可以确定新特征空间的基向量,进而进行降维操作。

线性判别分析(LDA)线性判别分析是一种经典的监督降维算法,它将高维数据映射到一个低维空间中,使得不同类别的数据在该空间中的投影能够最大程度地区分开来。

和PCA相比,LDA在进行降维时考虑了类别信息,因此可能更适用于分类问题。

t分布邻域嵌入(t-SNE)t-SNE是一种非线性降维算法,它通过构建高维数据点之间的概率分布和低维数据点之间的概率分布,来保持高维数据的邻域结构。

t-SNE通常被应用于可视化高维数据,特别是在探索复杂数据集时非常有用。

降维分析的案例应用为了更好地理解降维分析的实际应用,我们以鸢尾花数据集为例进行分析。

鸢尾花数据集是一个经典的多分类问题,其中包含了四个特征:花萼长度、花萼宽度、花瓣长度和花瓣宽度。

我们可以使用降维分析方法对鸢尾花数据集进行可视化,并探索数据的结构和分布。

首先,我们使用主成分分析(PCA)对鸢尾花数据进行降维。

通过计算主成分之间的协方差矩阵的特征值和特征向量,我们可以选择保留的主成分数量,从而实现数据降维。

机器学习10大算法-周辉

机器学习10大算法-周辉

机器学习10大算法什么是机器学习呢?从广泛的概念来说,机器学习是人工智能的一个子集。

人工智能旨在使计算机更智能化,而机器学习已经证明了如何做到这一点。

简而言之,机器学习是人工智能的应用。

通过使用从数据中反复学习到的算法,机器学习可以改进计算机的功能,而无需进行明确的编程。

机器学习中的算法有哪些?如果你是一个数据科学家或机器学习的狂热爱好者,你可以根据机器学习算法的类别来学习。

机器学习算法主要有三大类:监督学习、无监督学习和强化学习。

监督学习使用预定义的“训练示例”集合,训练系统,便于其在新数据被馈送时也能得出结论。

系统一直被训练,直到达到所需的精度水平。

无监督学习给系统一堆无标签数据,它必须自己检测模式和关系。

系统要用推断功能来描述未分类数据的模式。

强化学习强化学习其实是一个连续决策的过程,这个过程有点像有监督学习,只是标注数据不是预先准备好的,而是通过一个过程来回调整,并给出“标注数据”。

机器学习三大类别中常用的算法如下:1. 线性回归工作原理:该算法可以按其权重可视化。

但问题是,当你无法真正衡量它时,必须通过观察其高度和宽度来做一些猜测。

通过这种可视化的分析,可以获取一个结果。

回归线,由Y = a * X + b表示。

Y =因变量;a=斜率;X =自变量;b=截距。

通过减少数据点和回归线间距离的平方差的总和,可以导出系数a和b。

2. 逻辑回归根据一组独立变量,估计离散值。

它通过将数据匹配到logit函数来帮助预测事件。

下列方法用于临时的逻辑回归模型:添加交互项。

消除功能。

正则化技术。

使用非线性模型。

3. 决策树利用监督学习算法对问题进行分类。

决策树是一种支持工具,它使用树状图来决定决策或可能的后果、机会事件结果、资源成本和实用程序。

根据独立变量,将其划分为两个或多个同构集。

决策树的基本原理:根据一些 feature 进行分类,每个节点提一个问题,通过判断,将数据分为两类,再继续提问。

这些问题是根据已有数据学习出来的,再投入新数据的时候,就可以根据这棵树上的问题,将数据划分到合适的叶子上。

机器学习_降维算法

机器学习_降维算法

机器学习_降维算法降维算法是机器学习中常用的一种算法,旨在将高维数据转换为低维空间的表示,同时尽量保留原始数据的关键信息。

这对于处理高维数据时非常有用,可以降低计算复杂度、提高模型的训练速度和性能。

本文将介绍几种常见的降维算法,包括主成分分析(PCA)、线性判别分析(LDA)和t-SNE。

首先介绍主成分分析(PCA)。

PCA是一种无监督学习算法,旨在通过线性变换将数据投影到新的正交特征空间上,使得每个特征向量的方差最大化。

这样可以保留数据中最重要的方差,并减少特征之间的相关性。

具体而言,PCA的思想是找到数据中方差最大的方向,然后找到与该方向正交的方向中方差第二大的方向,依次进行,直到找到d个方差最大的方向,其中d是降维后的维度。

PCA的一个重要应用是数据可视化,通过将数据降维到2或3维,可以将高维数据在二维或三维图形中展示出来,更好地理解数据的结构。

最后介绍t-SNE。

t-SNE 是一种非线性降维算法,旨在将高维数据转换到低维空间上,同时保留数据间的局部结构。

与前两种算法不同,t-SNE 并不考虑全局的特征,而是聚焦于局部的相似性。

具体而言,t-SNE使用概率分布来衡量高维空间中样本之间的相似性,使用 t 分布来衡量低维空间中样本之间的相似性。

然后通过最小化两种分布之间的Kullback-Leibler 散度,将高维数据映射到低维空间。

因此,t-SNE 在处理可视化问题时非常有用,可以将高维数据转换为低维空间,并保留数据之间的局部相似性。

总结一下,降维算法是机器学习中重要的工具,在处理高维数据时起到了关键作用。

本文介绍了三种常见的降维算法:主成分分析(PCA)、线性判别分析(LDA)和t-SNE。

它们分别适用于不同的场景,可以根据具体的问题选择合适的算法。

同时,降维算法也有一些限制,例如可能丢失一些细节信息,因此在应用时需要权衡利弊。

机器学习算法:实现常用机器学习算法的代码实例

机器学习算法:实现常用机器学习算法的代码实例

机器学习算法:实现常用机器学习算法的代码实例机器学习算法是指通过一定的数学模型和方法,让计算机根据给定的数据对未知数据进行预测或分类的过程。

常用的机器学习算法包括监督学习、无监督学习和强化学习等。

下面将介绍几种常用的机器学习算法,并给出代码实例。

1.监督学习算法监督学习算法是指给定输入和对应的输出数据,通过学习建立一个模型,从而能够对未知输入数据进行预测。

其中最常用的监督学习算法包括线性回归、逻辑回归、决策树、随机森林等。

```python#线性回归示例from sklearn.linear_model import LinearRegressionmodel = LinearRegression()model.fit(X_train, y_train)y_pred = model.predict(X_test)#逻辑回归示例from sklearn.linear_model import LogisticRegression model = LogisticRegression()model.fit(X_train, y_train)y_pred = model.predict(X_test)#决策树示例from sklearn.tree import DecisionTreeClassifier model = DecisionTreeClassifier()model.fit(X_train, y_train)y_pred = model.predict(X_test)#随机森林示例from sklearn.ensemble import RandomForestClassifiermodel = RandomForestClassifier()model.fit(X_train, y_train)y_pred = model.predict(X_test)```2.无监督学习算法无监督学习算法是指不需要输出数据的情况下,通过对数据的特征进行分析和聚类等操作,从而找到数据之间的关联性和规律性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
(Fisher Linear Discriminant ,FLD),是模式识别的经典算法,1936年由Ronald Fisher
首次提出,并在1996年由Belhumeur引入模式识别和人工智能领域。
R.A Fisher
(1890-1962)
LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这
推导过程:
1. 给定一组数据:
2. 将其中心化后表示为:
3. 中心化后的数据在第一主轴u1方向上分布散的最开,也就是说在u1方向上的投影的绝对值之和最大(也
可以说方差最大),计算投影的方法就是将x与u1做内积,由于只需要求u1的方向,所以设u1是单位向量。
也就是最大化下式:
也即最大化:
两个向量做内积可以转化成矩阵乘法:
到底降维到多少时,分类效果最好;在实际中如何
确定最后的特征维度。
思考题
假设经过降维处理后,数据的维度变得不同,如何
在进一步的分类中将这些数据变得统一????
o
PPT模板下载:/moban/
行业PPT模板:/hangye/
节日PPT模板:/jieri/
PPT素材下载:/sucai/
PPT背景图片:/beijing/
PPT图表下载:/tubiao/
优秀PPT下载:/xiazai/
PPT教程: /powerpoint/
Word教程: /word/
降维后对分类识别效果有多大影响?
降维的好处
(1)进行数据压缩,减少数据存储所需空间以及计算所需时间。
(2)消除数据间的冗余,以简化数据,提高计算效率。
(3)去除噪声,提高模型性能。
(4)改善数据的可理解性,提高学习算法的精度。
(5)将数据维度减少到2维或者3维,进行可视化。
特征选择
Feature Selection
个维度就是主元。
向量的表示及基变换
A(3,2)
例题:
去中心化
现在问题来了:如果我们必须使
用一维来表示这些数据,又希望
尽量保留原始的信息,你要如何
选择?
下面是三维空间中的一组数据,很明显,数据的分布让我们很容易就能看出来主成分的轴(简称主
轴)的大致方向。下面的问题就是如何通过数学计算找出主轴的方向。来看这张图:
择其中最大的k个,然后将其对应的k个特征向量
分别作为列向量组成特征向量矩阵:
PCA在实际中的应用:
(自己写一个pca函数,与matlab库函数对比一下)在这块也可以介绍一下库函数用法
线性判别式分析(LDA)
线性判别分析(Linear Discriminant Analysis, LDA),也叫做Fisher线性判别
点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概
括,就是“投影后类内方差最小,类间方差最大”。
两类的线性判别问题
训练样本集:X={x1……..xN},每个样本是d维向量,其中w1类的样本是
H1={x11……..xN1}, w2类的样本是H1={x12……..xN2},寻找一个投影方向 (d


= 2 − 2λ
= λ
−1 = λ
* 这同样是一个求特征值的问题,我们求出的第i大的特征向量,就是对应的 了
步骤
1) 计算类内散度矩阵 ;
2) 计算类间散度矩阵 ;
3) 计算矩阵 −1 ;
4)计算 −1 的最大的d个特征值和对应的d个特征向量(1 , 2 , … )得
(模式识别)
在机器学习中,如果特征值(也可称之为维
识别结果
度,或feature)过多,会引发维度灾难。
维度灾难最直接的后果就是过拟合现象,
进而导致分类识别的错误,因此我们需要
输入
预处理
特征参数提取
模板训练
模板库
对所提的特征进行降维处理。
图 基本模式识别过程
降维后数据应该包含更多的信息?
降维?
问题
降维后会损失多少信息?
据中最主要的元素和结构,去除噪音和冗余,将原有的复杂数据降维,揭露出隐藏在复杂数
据背后的简单结构。
主成分分析就是试图在力保数据信息丢失最少的原则下,对这种多变量的数据表进行最
佳综合简化。这些综合指标就称为主成分,也就是说,对高维变量空间进行降维处理,
从线性代数角度来看,PCA目标是找到一组新正交基去重新描述得到的数据空间,这
1. 去均值,方差归一化(预处理的实质是将坐标原点移到样本点的中心点)
2. 求特征协方差矩阵
3. 求协方差矩阵的特征值和特征向量
4. 将特征值按照从大到小的顺序排序,选择其中最大的 k 个,然后将其对应的 k个特征向量
分别作为列向量组成特征向量矩阵
5. 将样本点投影到选取的特征向量上。假设样例数为 m,特征数为 n,减去均值后的样本矩
降维
方法
01
Contents
02
选择有效的特征子集,即去掉不相
关或冗余的特征。特征选择后留下的特
征值的数值在选择前后没有变化。也就
是说,特征选择后的特征是原来特征的
一个子集。
特征抽取
Feature Extraction*
特征抽取是指改变原有的特征空间,
并将其映射到一个新的特征空间。也就
是说,特征抽取后的新特征是原来特征
PPT论坛:
谢谢!
维向量),
从直观上看,右图的分类效果比较好,同类之间样本聚集,不同类之间相聚
较远
投影以后样本:
加上aTa=1的条件(类似于PCA)
投影均值:
原样本均值:
拓展成多类:
类间散度矩阵 :
类类散度矩阵 :
目标函数&约束条件:

( )
= 1;
构造拉格朗日函数: = − λ( −1)
阵为 DataAdjust(m*n),协方差矩阵是 n*n,选取的 k 个特征向量组成的矩阵为
EigenVectors(n*k)。那么投影后的数据 FinalData 为
这样,就将原始样例的 n 维特征变成了 k 维,这 k 维就是原始特征在 k 维上的投影,代表了原始的n个
特征。
PCA具体举例
我举个例子来说明一下PCA的算法以及它的流程:
的一个映射。
降维算法分类
降维算法可以根据所采用策略的不同而进行不同的分类
一、样本信息是否利用
监督降维方法
൞ 半监督降维方法
无监督降维方法
二、根据所要处理的数据属性类型的不同
线性降维方法: PCA、LDA

非线性降维方法:LLE、Laplacian Eigenmaps
主成分分析 (PCA)
PCA是principal component analysis 的缩写,即主成分分析。此方法目标是找到数
所以目标函数可以表示为:
0
所以目标函数最后化为:
目标函数和约束条件构成了一个最大化问题:
构造拉格朗日函数:
对u1求导:
显然,u1即为XXT特征值
对应的特征向量! XXT的所有特征值和特征向量都满足上式,那么将上式代入
目标函数表达式即可得到
所以,如果取最大的那个特征值
,那么得到的目标值就最大。
步骤
2)两者在降维时均使用了矩阵特征分解的思想。
3)两者都假设数据符合高斯分布。
我们接着看看不同点:
1)LDA是有监督的降维方法,而PCA是无监督的降维方法
2)LDA降维最多降到类别数k-1的维数,而PCA没有这个限制。
3)LDA除了可以用于降维,还可以用于分类。
4)LDA选择分类性能最好的投影方向,而PCA选择样本点投
到投影矩阵 ;
5) 对样本集中的每一个样本特征 ,转化为新的样本 = ;
6) 得到输出样本集。
例题:
计算类间散度
LDA vs PCA
LDA用于降维,和PCA有很多相同,也有很多不同的地方,因此
值得好好的比较一下两者的降维异同点。
首先我们看看相同点:
1)两者均可以对数据进行降维。
影具有最大方差的方向。
降维工具箱drtool
工具箱下载:/svn/trunk/apps/drtoolbox/
作业
基础题
自己编写PCA、LDA程序在软木塞、ROCK数据集上
实现特征的降维,并与库函数进行对比。
提高题
对降维后的数据,利用SVM,KNN等进行分类,观察
我们有以下数据:
第一步:分别求x和y的均值,然
后对于所有的样例,都减去对应
的均值,ҧ =1.81,ത =1.91。
第二步:求特征协方差矩阵
Байду номын сангаас
第三步:求协方差的特征值和特
征向量,得到
第五步:将样本点投影到选取的特征向量上。
那么投影后的数据FinalData为
第四步:将特征值按照从大到小的顺序排序,选
降维算法讲解
讲授人:XXX
时间:2017.3.31
什么是降维?
降维就是这样一个过程,在降低数据集维度的同时,保证其中包含的主要信息
是相似的(就是保证有效信息不要丢失)。降维技术最典型的应用就是在机器学习
问题中,进行有效的特征选择,以此获得更好的分类、回归效果。
为什么要降维?
失真测度
识别
相似度比较
Excel教程:/excel/
资料下载:/ziliao/
PPT课件下载:/kejian/
范文下载:/fanwen/
试卷下载:/shiti/
教案下载:/jiaoan/
相关文档
最新文档