支持向量机与K近邻结合的网页分类方法

合集下载

聚类算法和分类算法总结

聚类算法和分类算法总结

聚类算法和分类算法总结聚类算法总结原⽂:聚类算法的种类:基于划分聚类算法(partition clustering)k-means:是⼀种典型的划分聚类算法,它⽤⼀个聚类的中⼼来代表⼀个簇,即在迭代过程中选择的聚点不⼀定是聚类中的⼀个点,该算法只能处理数值型数据k-modes:K-Means算法的扩展,采⽤简单匹配⽅法来度量分类型数据的相似度k-prototypes:结合了K-Means和K-Modes两种算法,能够处理混合型数据k-medoids:在迭代过程中选择簇中的某点作为聚点,PAM是典型的k-medoids算法CLARA:CLARA算法在PAM的基础上采⽤了抽样技术,能够处理⼤规模数据CLARANS:CLARANS算法融合了PAM和CLARA两者的优点,是第⼀个⽤于空间数据库的聚类算法FocusedCLARAN:采⽤了空间索引技术提⾼了CLARANS算法的效率PCM:模糊集合理论引⼊聚类分析中并提出了PCM模糊聚类算法基于层次聚类算法:CURE:采⽤抽样技术先对数据集D随机抽取样本,再采⽤分区技术对样本进⾏分区,然后对每个分区局部聚类,最后对局部聚类进⾏全局聚类ROCK:也采⽤了随机抽样技术,该算法在计算两个对象的相似度时,同时考虑了周围对象的影响CHEMALOEN(变⾊龙算法):⾸先由数据集构造成⼀个K-最近邻图Gk ,再通过⼀个图的划分算法将图Gk 划分成⼤量的⼦图,每个⼦图代表⼀个初始⼦簇,最后⽤⼀个凝聚的层次聚类算法反复合并⼦簇,找到真正的结果簇SBAC:SBAC算法则在计算对象间相似度时,考虑了属性特征对于体现对象本质的重要程度,对于更能体现对象本质的属性赋予较⾼的权值BIRCH:BIRCH算法利⽤树结构对数据集进⾏处理,叶结点存储⼀个聚类,⽤中⼼和半径表⽰,顺序处理每⼀个对象,并把它划分到距离最近的结点,该算法也可以作为其他聚类算法的预处理过程BUBBLE:BUBBLE算法则把BIRCH算法的中⼼和半径概念推⼴到普通的距离空间BUBBLE-FM:BUBBLE-FM算法通过减少距离的计算次数,提⾼了BUBBLE算法的效率基于密度聚类算法:DBSCAN:DBSCAN算法是⼀种典型的基于密度的聚类算法,该算法采⽤空间索引技术来搜索对象的邻域,引⼊了“核⼼对象”和“密度可达”等概念,从核⼼对象出发,把所有密度可达的对象组成⼀个簇GDBSCAN:算法通过泛化DBSCAN算法中邻域的概念,以适应空间对象的特点DBLASD:OPTICS:OPTICS算法结合了聚类的⾃动性和交互性,先⽣成聚类的次序,可以对不同的聚类设置不同的参数,来得到⽤户满意的结果FDC:FDC算法通过构造k-d tree把整个数据空间划分成若⼲个矩形空间,当空间维数较少时可以⼤⼤提⾼DBSCAN的效率基于⽹格的聚类算法:STING:利⽤⽹格单元保存数据统计信息,从⽽实现多分辨率的聚类WaveCluster:在聚类分析中引⼊了⼩波变换的原理,主要应⽤于信号处理领域。

k-最近邻算法

k-最近邻算法

k-最近邻算法
1.k-最近邻算法是一种基于实例(Instance-based)的学习方法,也称为惰性学习(Lazy learning)方法或者近似实例学习方法。

它是一种分类方法,它不学习实例及其
之间的关系,而是直接存储数据,当需要进行分类预测时,寻找距离最近的K个点,然后
根据这些点的类别进行预测。

2.k-最近邻算法原理:通过比较未知实例与训练数据库中的实例,测量它们之间的距离,来预测该未知实例的类别。

与距离它最近的K个实例的类别最多的作为该未知实例的
类别。

3.k-近邻算法的优缺点:
优点:
1.简单易行:最近邻算法是计算机最简单的分类算法,直观有效,操作简单易行。

2.可预测性良好:最近邻分类算法可以获得较好的解决方法,并达到较高的预测性能。

3.大规模数据集可以很快地进行分类:kNN算法仅依赖训练数据中出现的模型,而不
用于存储数据,因此它可以在庞大的数据集上进行分类并实现极快的计算性能。

1.计算复杂度高:KNN算法比较复杂,需要调参数,计算复杂度较高且及时性较差。

2.存在样本不平衡问题:由于KNN算法没有考虑数据的内在分布特征,对于样本不平
衡的问题容易出现误分的情况。

3.维数灾难:KNN算法容易陷入维数灾难,即随着维数增加,距离也会不断增加,准
确率越来越低。

ssvep常用分类方法

ssvep常用分类方法

ssvep常用分类方法
一、SSVEP 常用分类方法
1、神经网络分类:神经网络分类是一种基于模式分类的机器学习算法,通过设置网络结构和训练方式,可以实现自动从输入信号中学习,从而对信号进行快速准确的分类。

2、支持向量机分类:支持向量机(SVM)是一种用于多类分类的数据挖掘技术。

它使用支持向量和核函数对特征向量进行建模,并在计算过程中充分地考虑了维数和样本的稀疏性,从而达到更准确的分类效果。

3、KNN分类:K-Nearest Neighbor(KNN)分类算法是一种基于实例的学习和分类算法,它通过一组样本,对新样本进行分类,实际上是利用未知样本与已知样本之间的相似性,从而实现分类的目的。

4、决策树分类:决策树是一种用于分类的机器学习算法,它可以根据特定信息,按照有序结构构建出一棵决策树,从而实现特征的筛选和分类。

5、贝叶斯分类:贝叶斯分类是一种基于概率论的分类算法,它可以根据样本信息和给定的概率分布,计算出待分类样本属于每个类别的概率,从而确定它的分类结果。

- 1 -。

ml算法公式

ml算法公式

ML算法公式简介机器学习(Machine Learning, ML)算法的公式因算法类型和具体应用而异。

以下是几种常见的机器学习算法的公式:1.线性回归(Linear Regression):线性回归是一种通过找到最佳拟合直线来预测连续值的算法。

其公式如下:y = b0 + b1 * x其中,y是因变量,x是自变量,b0和b1是模型参数,通过最小化预测值与实际值之间的平方误差来估计。

2.逻辑回归(Logistic Regression):逻辑回归是一种用于分类问题的机器学习算法,其公式如下:h(x) = g(b0 + b1 * x) = 1 / (1 + e^(-(b0 + b1 * x)))其中,h(x)表示在给定自变量x的情况下,因变量为1的概率,g(x)是sigmoid函数,将线性回归模型的输出映射到0和1之间。

3.决策树(Decision Tree):决策树是一种监督学习算法,其公式如下:if condition1 then result1 else result2其中,condition1是一个或多个属性上的条件,result1和result2是对应的分类结果。

决策树通过递归地将数据集划分为更纯的子集来构建决策树。

4.随机森林(Random Forest):随机森林是一种集成学习算法,其公式如下:y = argmax(w * f(x)) 其中,w是一个权重向量,f(x)是一个基学习器(通常是一个决策树)。

随机森林通过构建多个基学习器并将它们的输出组合起来以进行预测。

5.支持向量机(Support Vector Machine, SVM):支持向量机是一种分类算法,其公式如下:f(x) = w * x + b 其中,w和b是模型参数,x是输入特征向量,f(x)是分类函数。

支持向量机通过找到能够将不同类别的数据点最大化分隔的决策边界来实现分类。

6.K-近邻(K-Nearest Neighbor, KNN):K-近邻是一种基于实例的学习算法,其公式如下:y = argmax(k) 其中,k是最近邻的距离度量,y是最近邻的类别标签。

分类与回归应用的主要算法

分类与回归应用的主要算法

分类与回归应用的主要算法分类与回归是机器学习中最普遍且重要的应用之一。

其目的是预测输出变量的值,考虑特征变量的影响。

机器学习中常用的分类算法有决策树、支持向量机、朴素贝叶斯和随机森林等,回归算法有线性回归、岭回归、LASSO回归和K-近邻回归等。

1.决策树决策树是一种基于树形结构进行决策的分类算法。

它通过判断特征变量的取值最为关键,根据特征值划分出不同的子节点,并根据节点之间的关系识别输出变量的值。

决策树有较高的解释性和可读性,处理小规模数据的效果非常出色,由于它的效率高、准确性好,近年来逐渐成为了分类问题中的主流方法。

2.支持向量机支持向量机(SVM)是一种基于间隔最大化原理进行分类的算法。

SVM通过选择最优的超平面来划分不同的类别,最终达到分类的目的。

该算法可以有效地解决高维数据的分类问题,广泛应用于文本分类、图像识别、生物信息学、金融和医学等领域。

3.朴素贝叶斯朴素贝叶斯算法是一种基于贝叶斯定理和特征条件独立假设进行分类的算法。

朴素贝叶斯算法可以对大规模样本进行有效的分类,广泛应用于文本分类、垃圾邮件过滤、情感分析等领域。

4.随机森林随机森林(RF)是一种基于随机特征选择和决策树分类的算法。

RF可以在保证精确度的同时降低过拟合风险,不易受到噪声和异常点的影响,广泛应用于遥感影像分类、图像处理、文本分类等领域。

5.线性回归线性回归是一种基于线性模型进行回归分析的算法。

它可以通过变量之间线性关系进行预测,并给出输出变量的具体数值。

线性回归在数据量较大、特征空间较稀疏的情况下运行效果非常好,广泛应用于金融、医学和社会学等领域。

6.岭回归岭回归是一种基于线性回归进行优化的算法。

随着特征数量的增加,线性回归常常会发生过拟合的现象。

岭回归通过在原有的线性回归的模型中添加一个正则项(L2范数)来限制参数,降低模型的方差。

岭回归适用于处理多元线性回归并减少过拟合的问题。

SSO回归LASSO回归是一种基于线性回归进行优化的算法。

KNN(K近邻法)算法原理

KNN(K近邻法)算法原理

KNN(K近邻法)算法原理⼀、K近邻概述k近邻法(k-nearest neighbor, kNN)是⼀种基本分类与回归⽅法(有监督学习的⼀种),KNN(k-nearest neighbor algorithm)算法的核⼼思想是如果⼀个样本在特征空间中的k(k⼀般不超过20)个最相邻的样本中的⼤多数属于某⼀个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。

简单地说,K-近邻算法采⽤测量不同特征值之间的距离⽅法进⾏分类。

通常,在分类任务中可使⽤“投票法”,即选择这k个实例中出现最多的标记类别作为预测结果;在回归任务中可使⽤“平均法”,即将这k个实例的实值输出标记的平均值作为预测结果;还可基于距离远近进⾏加权平均或加权投票,距离越近的实例权重越⼤。

k近邻法不具有显式的学习过程,事实上,它是懒惰学习(lazy learning)的著名代表,此类学习技术在训练阶段仅仅是把样本保存起来,训练时间开销为零,待收到测试样本后再进⾏处理K近邻算法的优缺点:优点:精度⾼、对异常值不敏感、⽆数据输⼊假定缺点:计算复杂度⾼、空间复杂度⾼适⽤数据范围:数值型和标称型⼆、K近邻法的三要素距离度量、k值的选择及分类决策规则是k近邻法的三个基本要素。

根据选择的距离度量(如曼哈顿距离或欧⽒距离),可计算测试实例与训练集中的每个实例点的距离,根据k值选择k个最近邻点,最后根据分类决策规则将测试实例分类。

根据欧⽒距离,选择k=4个离测试实例最近的训练实例(红圈处),再根据多数表决的分类决策规则,即这4个实例多数属于“-类”,可推断测试实例为“-类”。

k近邻法1968年由Cover和Hart提出1.距离度量特征空间中的两个实例点的距离是两个实例点相似程度的反映。

K近邻法的特征空间⼀般是n维实数向量空间Rn。

使⽤的距离是欧⽒距离,但也可以是其他距离,如更⼀般的Lp距离或Minkowski距离Minkowski距离(也叫闵⽒距离):当p=1时,得到绝对值距离,也称曼哈顿距离(Manhattan distance),在⼆维空间中可以看出,这种距离是计算两点之间的直⾓边距离,相当于城市中出租汽车沿城市街道拐直⾓前进⽽不能⾛两点连接间的最短距离,绝对值距离的特点是各特征参数以等权参与进来,所以也称等混合距离当p=2时,得到欧⼏⾥德距离(Euclidean distance),就是两点之间的直线距离(以下简称欧⽒距离)。

K-近邻算法

K-近邻算法⼀、概述k-近邻算法(k-Nearest Neighbour algorithm),⼜称为KNN算法,是数据挖掘技术中原理最简单的算法。

KNN 的⼯作原理:给定⼀个已知标签类别的训练数据集,输⼊没有标签的新数据后,在训练数据集中找到与新数据最邻近的k个实例,如果这k个实例的多数属于某个类别,那么新数据就属于这个类别。

可以简单理解为:由那些离X最近的k个点来投票决定X归为哪⼀类。

图1 图1中有红⾊三⾓和蓝⾊⽅块两种类别,我们现在需要判断绿⾊圆点属于哪种类别当k=3时,绿⾊圆点属于红⾊三⾓这种类别;当k=5时,绿⾊圆点属于蓝⾊⽅块这种类别。

举个简单的例⼦,可以⽤k-近邻算法分类⼀个电影是爱情⽚还是动作⽚。

(打⽃镜头和接吻镜头数量为虚构)电影名称打⽃镜头接吻镜头电影类型⽆问西东1101爱情⽚后来的我们589爱情⽚前任31297爱情⽚红海⾏动1085动作⽚唐⼈街探案1129动作⽚战狼21158动作⽚新电影2467?表1 每部电影的打⽃镜头数、接吻镜头数和电影分类表1就是我们已有的数据集合,也就是训练样本集。

这个数据集有两个特征——打⽃镜头数和接吻镜头数。

除此之外,我们也知道每部电影的所属类型,即分类标签。

粗略看来,接吻镜头多的就是爱情⽚,打⽃镜头多的就是动作⽚。

以我们多年的经验来看,这个分类还算合理。

如果现在给我⼀部新的电影,告诉我电影中的打⽃镜头和接吻镜头分别是多少,那么我可以根据你给出的信息进⾏判断,这部电影是属于爱情⽚还是动作⽚。

⽽k-近邻算法也可以像我们⼈⼀样做到这⼀点。

但是,这仅仅是两个特征,如果把特征扩⼤到N个呢?我们⼈类还能凭经验“⼀眼看出”电影的所属类别吗?想想就知道这是⼀个⾮常困难的事情,但算法可以,这就是算法的魅⼒所在。

我们已经知道k-近邻算法的⼯作原理,根据特征⽐较,然后提取样本集中特征最相似数据(最近邻)的分类标签。

那么如何进⾏⽐较呢?⽐如表1中新出的电影,我们该如何判断他所属的电影类别呢?如图2所⽰。

监督学习方法的比较和分析

监督学习方法的比较和分析监督学习是机器学习中最常见也是应用最广泛的方法之一。

它的核心思想就是通过已有的数据集来训练模型,从而使模型能够对未知数据做出正确的预测。

和其他机器学习方法相比,监督学习具有易于实现、预测准确度高等优点。

然而,不同的监督学习方法可能会在不同的任务和数据集上带来显著的区别。

因此,本文将对几种常见的监督学习方法进行比较和分析。

1. 决策树决策树是一种用于分类和回归的监督学习方法。

它可以将数据集划分成不同的子集,直到每个子集只包含同一种类别或者达到预定的停止条件。

决策树的优点在于易于理解和解释,同时它可以处理数值和分类特征,并且不需要太多的数据预处理。

但是,由于决策树的分裂方式过于简单,容易出现过拟合的现象。

此外,决策树对噪声和异常值也比较敏感。

2. 支持向量机支持向量机是一种常用于分类和回归的监督学习方法。

它的核心是寻找一个可以将不同类别数据分开的超平面。

支持向量机的优点在于能够处理线性和非线性数据,并且通过核函数的使用,它能够将低维数据映射到高维空间。

但是,支持向量机的运算比较复杂,模型训练时间较长。

同时,支持向量机对于噪声和异常值也比较敏感。

3. 朴素贝叶斯朴素贝叶斯是一种常见的分类方法。

它的核心思想是基于贝叶斯定理,通过观察先验概率和条件概率来确定后验概率。

朴素贝叶斯的优点在于简单快速,并且对于大规模数据集有很好的可扩展性。

此外,朴素贝叶斯对于噪声数据的影响较小。

但是,由于它假设特征之间是彼此独立的,所以在处理不相关特征的时候可能会出现糟糕的效果。

4. K近邻K近邻是一种常用于分类和回归的监督学习方法。

它的核心思想是将新数据分类为与其最近的K个训练数据的大多数类别。

K近邻的优点在于模型简单易懂,并且能够适应复杂的数据集。

此外,K近邻还可以处理离散和连续型数据。

但是,由于需要计算每个数据和所有训练样本间的距离,所以K近邻的算法复杂度很高。

5. 神经网络神经网络是一种基于生物神经元工作原理的多层感知器模型。

监督分类方法比较

监督分类方法比较常见的监督分类方法有以下几种:1. 逻辑回归(Logistic Regression)逻辑回归是利用Logistic函数将特征与目标变量之间的关系建模的线性分类器。

逻辑回归常用于二分类问题。

优点:计算速度快,易于理解和实现。

缺点:当特征之间高度相关或数据集中存在离群值时,逻辑回归的性能会受到影响。

2. 支持向量机(Support Vector Machine,SVM)SVM是一种基于线性(或非线性)判别边界的二分类方法。

它通过找到一个可以最大化样本之间边缘距离的超平面来分类。

SVM的核心在于选择有效的核函数和调节SVM超参数。

优点:适用于高维数据集,可以处理非线性分类问题。

缺点:对于大规模数据集的计算需求量较大。

3. 决策树(Decision Tree)决策树是一种流程图形式的分类模型,它能够通过构建一系列的决策规则快速分类数据集。

优点:易于理解和解释,数据预处理要求较低。

缺点:容易过拟合,对于连续变量的处理较为复杂。

4. 随机森林(Random Forest)随机森林是一种用来解决分类问题的集成学习方法。

它通过同时训练多个决策树来获取更好的预测性能。

优点:鲁棒性强,抗过拟合能力强。

缺点:模型的可解释性较低,因为通常需要大量的树才能取得良好的性能。

5. K近邻(K Nearest Neighbors,KNN)KNN是一种基于类似实例的推理方法,它通过找到与待分类样本相邻的K个训练样本来预测其所属类别。

优点:易于实现和理解,适用于多分类和非线性分类问题。

缺点:需要存储全部的训练样本,对于大规模数据集计算量较大。

对于异常值敏感。

下列属于分类与回归的方法

下列属于分类与回归的方法以下是一些常见的分类与回归的方法:1. 逻辑回归(Logistic Regression):逻辑回归是一种广泛应用于分类问题中的线性模型,它将数据映射到一个0到1之间的概率值,然后根据特定的阈值进行分类。

2. 决策树(Decision Tree):决策树是一种基于树形结构的分类算法,它将数据分成不同的子集,一旦达到某个条件便停止分割,然后根据叶节点的类别进行分类。

3. k近邻(k-Nearest Neighbors,简称k-NN):k-NN是一种基于实例的学习,通过测量不同数据点之间的距离进行分类。

4. 支持向量机(Support Vector Machine,简称SVM):SVM是一种监督学习模型,主要用于分类和回归分析。

5. 朴素贝叶斯(Naive Bayes):朴素贝叶斯是一种基于贝叶斯定理与特征之间独立假设的分类方法。

6. 随机森林(Random Forest):随机森林是一种集成学习算法,通过构建多个决策树并综合它们的预测结果来进行分类。

7. 梯度提升决策树(Gradient Boosting Decision Tree,简称GBDT):GBDT是一种迭代地添加新的决策树到模型中,并使用负梯度来指导训练过程的算法。

8. 线性回归(Linear Regression):线性回归是一种用于预测数值型数据的线性模型。

9. 岭回归(Ridge Regression):岭回归是对线性回归的一种改进,通过引入L2正则化项来防止过拟合。

10. 套索回归(Lasso Regression):套索回归也是对线性回归的一种改进,通过引入L1正则化项来实现特征选择和稀疏性。

这些方法在不同的场景和应用中都有广泛的应用,选择合适的方法需要考虑数据的特点和问题的需求。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

c mp r d t oe S o a e s l VM ,b t lo s l et e p o lm fs lc ig t e p r me e fk r e u ci n frS o u s o v h r b e o e e t h aa tro e n lf n t o VM etr a n o bt . e
第2卷 第9 7 期
文 章 编 号 :0 6— 3 8 2 1 ) 9— 2 8—0 10 9 4 (0 0 0 0 0 4



仿

21年9 00 月
支 持 向量 机 与 K 近 邻 结 合 的 网 页 分 类 方 法
宗永升 , 张 袜
( 皇 岛 职业 技 术 学 院 , 北 秦 皇 岛 0 60 秦 河 6 10)
c mp r h itn e b t e n t e tsi gs mp ea d e e u p  ̄ v c o . h s n a l a e ca s d b n - o a e t e d s c ew e h e t a l n v r s p o e t r T e t t g s mp e c n b ls e y f d a n y e i i
摘要 : 在网页 自动分类优化数据管理的研究 , 网页分类技术是数据挖掘研究 中的一个热点领域 , 针对当前网页分类方法 的精 度低 、 速度慢等难题 , 为提高 网页分类准确率, 出一种将支持向量机 和最近邻相结合的网页分类方法 ( N 提 K N—S M) N V 。K N

S M在分类阶段计算 待识别样本和最优分类超平 面的距离 , V 如果距离差大于给定 阈值直接 应用支持向量机分类 , 否则代
cm ie up r etr ahn S M)wt K—naet e h or( N o bndS p ot coM c i V e( V i h er i bu K N)i peetda dicme t biga sn g s rsne n o s no e t i n
n w c a s e .I e d sa c s g e trt a h ie h e h l e ls i r f h i n e i ra e h n te gv n t r s od,t e t s s mp els i d o VM ,oh r l i f te-
络信 息也 越 来 越 多 , 何 从 这些 海 量 的 信 息 中高 效 地 获 得 所 如 需信 息 已成 为 当前 必 须 解 决 的问 题 … 。
数据集计算 比较上 , 当训练数据集 比较大 时, 计算开销很 大 , 不适用于在线的实 时分类 。并且 该算 法对样本 的分 布情况 比较敏感 , 样本分布不均匀会造成分类 准确率 的下 降 J 。支 持 向量机( upr et Mahn ,V 被认 为是 目前 较为理 s pot c r cieS M) V o 想 的一种 分 类算 法 , 别 是在 样 本数 目比较 少 的情 况 下 , 特
ZONG n Yo g—s e g, h n ZHANG Yi
( i undoIst eO eh o g , ihag a ee 06 0 C i ) Qn ag a tu f cnl y Qn undoH bi 6 10, hn h n it T o a
ABS TRACT : e a e ca sf ain h sb e o s ee sa h t e e r h ae aami ig e loi mt a W b p g l s i c t a e n c n i rd a o s a c r a i d t n n .A n w ag r h h t i o d r n t
ig KNN e tn a p e n tsig s m l .Th u e c le pe me t h w t tte m ie l o t e n m r a x r n ss o ha h x d ag r hm a o n y i i i i c n n to l mprv hea c r c oet c ua y
中图 分 类 号 :P 8 T 11 文 献 标 识 码 : B
W e a sfc to e ho s d o p r c o a h ne n NN b Cl s i a i n M t d Ba e n Su po tVe t r M c i s a d K i
入以每类的所有 的支持 向量作为代表点 的 K近邻分类并进行仿真。仿 真结果表明 , 使用支持向量机结合最近邻 分类 的分类 器分类比单独使用支持 向量机分类具有更 高的分类准确率 , 较好地解决应用支持向量机分类时核 函数参数的选择 问题。 关键词 : 支持向量机 ; 最近邻分类 ; 核函数
K YWOR :up rvc r ahn ( V ; er e h or l rh K re fnt n E DS S p o et cie S M) N as ni bu gi m; e luci t om t g a ot n o
1 引 言
随着计算机 网络技术 的快速发展和 We2 0广泛深入 的 b. 应用 , 同时互联网上 的信 息呈 指数 级增长 , 人们 可利用 的 网
wie,t s he KNN lo tm l s d. I ag r h wilbe u e i n KNN l o t ,we s lc v r up o tv c o s rprs na ie p i n ag r hm i ee te e y s p r e tra e e e ttv onta d
相关文档
最新文档