监督分类方法

合集下载

监管分类中常用的具体分类方法

监管分类中常用的具体分类方法

监督分类中常用的具体分类方法包括:最小距离分类法(minimum distance classifier):最小距离分类法是用特征空间中的距离作为像元分类依据的。

最小距离分类包括最小距离判别法和最近邻域分类法。

最小距离判别法要求对遥感图像中每一个类别选一个具有代表意义的统计特征量(均值),首先计算待分象元与已知类别之间的距离,然后将其归属于距离最小的一类。

最近邻域分类法是上述方法在多波段遥感图像分类的推广。

在多波段遥感图像分类中,每一类别具有多个统计特征量。

最近邻域分类法首先计算待分象元到每一类中每一个统计特征量间的距离,这样,该象元到每一类都有几个距离值,取其中最小的一个距离作为该象元到该类别的距离,最后比较该待分象元到所有类别间的距离,将其归属于距离最小的一类。

最小距离分类法原理简单,分类精度不高,但计算速度快,它可以在快速浏览分类概况中使用。

多级切割分类法(multi-level slice classifier):是根据设定在各轴上值域分割多维特征空间的分类方法。

通过分割得到的多维长方体对应各分类类别。

经过反复对定义的这些长方体的值域进行内外判断而完成各象元的分类。

这种方法要求通过选取训练区详细了解分类类别(总体)的特征,并以较高的精度设定每个分类类别的光谱特征上限值和下限值,以便构成特征子空间。

多级切割分类法要求训练区样本选择必须覆盖所有的类型,在分类过程中,需要利用待分类像元光谱特征值与各个类别特征子空间在每一维上的值域进行内外判断,检查其落入哪个类别特征子空间中,直到完成各像元的分类。

多级分割法分类便于直观理解如何分割特征空间,以及待分类像元如何与分类类别相对应。

由于分类中不需要复杂的计算,与其它监督分类方法比较,具有速度快的特点。

但多级分割法要求分割面总是与各特征轴正交,如果各类别在特征空间中呈现倾斜分布,就会产生分类误差。

因此运用多级分割法分类前,需要先进行主成分分析,或采用其它方法对各轴进行相互独立的正交变换,然后进行多级分割。

监督分类有哪些方法

监督分类有哪些方法

监督分类有哪些方法监督分类是机器学习中的一种常见任务,主要是将输入的样本数据分为不同的预定义类别。

监督分类方法有很多种,可以根据算法的原理和特点进行分类。

以下是一些常用的监督分类方法:1. 逻辑回归(Logistic Regression):逻辑回归是一种线性分类算法,常用于二分类任务。

它基于一个S形函数,将输入特征与权重进行线性组合,并通过一个sigmoid函数将结果映射到[0, 1]的范围内,从而得到分类概率。

2. 决策树(Decision Tree):决策树通过对输入特征进行逐层划分,构建一个树状结构来进行分类。

它以特征的信息增益或基尼指数等作为准则来选择最佳的划分特征,从而在每个节点上进行分类决策。

3. 支持向量机(Support Vector Machines, SVM):SVM是一种二分类算法,基于统计学习理论和结构风险最小化准则。

SVM利用核函数在高维特征空间中将样本映射为线性可分的,并通过寻找最大间隔超平面来进行分类。

4. k最近邻(k-Nearest Neighbors, k-NN):k-NN是一种基于实例的分类算法,可以用于多分类任务。

它通过比较输入样本与训练样本之间的距离,并取最接近的k个邻居的标签来进行分类。

5. 朴素贝叶斯(Naive Bayes):朴素贝叶斯基于贝叶斯定理和特征条件独立性假设,将输入特征的联合概率分解为各个特征的条件概率。

它通过计算后验概率来进行分类,选择具有最大概率的类别。

6. 神经网络(Neural Networks):神经网络是一类模拟人脑神经元结构和工作机制的计算模型,在监督分类中常用于多分类任务。

它通过多层神经元处理输入特征,并通过反向传播算法来优化网络权重,从而实现分类。

7. 集成学习(Ensemble Learning):集成学习将多个分类模型组合成一个更强大的模型,以提高分类性能和鲁棒性。

常见的集成方法包括随机森林(Random Forest)和梯度提升树(Gradient Boosting Tree)。

监督学习的分类算法

监督学习的分类算法

监督学习的分类算法
在机器学习中,无监督学习(Unsupervised learning)就是聚类,事先不知道样本的类别,通过某种办法,把相似的样本放在一起归位一类;而监督型学习(Supervised learning)就是有训练样本,带有属性标签,也可以理解成样本有输入有输出。

所有的回归算法和分类算法都属于监督学习。

回归(Regression)和分类(Classification)的算法区别在于输出变量的类型,定量输出称为回归,或者说是连续变量预测;定性输出称为分类,或者说是离散变量预测。

以下是一些常用的监督型学习方法。

一.K-近邻算法(k-Nearest Neighbors,KNN),K-近邻是一种分类算法,其思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。

K通常是不大于20的整数。

KNN算法中,所选择的邻居都是已经正确分类的对象。

该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。

二. 决策树(Decision Trees)
决策树是一种常见的分类方法,其思想和“人类逐步分析比较然后作出结论”的过程十分相似。

监督分类的方法

监督分类的方法

监督分类的方法监督分类的方法监督分类是一种数据分析技术,是一种机器学习算法,它很大程度上是在两类或者多类数据之间划分线性分类模型。

它是将已经标记的训练数据集映射成一个函数,从而预测没有标记的数据集属于哪一类。

监督分类通常有四种方法:一、K最近邻(K-Nearest Neighbors)法K最近邻(KNN)法是最常用的监督分类法之一。

它是一种基于实例的方法,其假设一个新实例的类别可以由它最近的训练实例的类别来决定(即K个最相似的实例),而不是统计分布。

KNN是一种基于投票的方法,即多数表决算法。

KNN的工作机制如下:对于一个未知类别的实例,依次取它距离最近的K个已知类别的实例,确定它的类别。

二、朴素贝叶斯(Naive Bayes)朴素贝叶斯(NB)是一种统计学方法,它假设每个特征属性之间相互独立,这个假设被称为贝叶斯假设或者朴素假设。

它被广泛地用于文档分类,数据挖掘,垃圾邮件过滤,和其他数据相关的应用场景中。

三、决策树(Decision Tree)决策树是一种监督学习的方法,它利用一系列问题来决定某一特定的类别分类的结果。

使用决策树可以将未确定的分类结果拆分成各个层次的问题,每个问题都可以用有限数量的语句来表示,称为决策节点,从而对分类结果进行准确的判断,并且决策树可以根据每个决策节点建立模型,将训练数据集映射成决策树模型,从而得出预测结果。

四、支持向量机(Support Vector Machine)支持向量机(SVM)是一种监督式学习的技术,它可以用来在样本空间中建立一个最佳的超平面,从而将类别完全分开。

它有两个基本概念:核函数和决策函数,其工作原理是:它从原始数据中提取出最佳分类的超平面,再根据支持向量的距离来判断类别,从而使得分类效果尽可能获得最高的精度。

监督分类是需要学习训练的分类方法

监督分类是需要学习训练的分类方法

监督分类是需要学习训练的分类方法,如最大似然分类,人工神经网络分类,即是需要事先为每类地物在遥感图像上采集样本数据,之后通过学习训练过程才来分类;非监督分类不需要人工采集地物样本点数据,多是通过聚类的方法来自动分类,主要有isodata,k均值等.总体来说,监督分类的效果要优于非监督分类.遥感影像的分类方法按照是否有先验类别可以分为监督分类和非监督分类,这两种分类法有着本质的区别但也存在一定的联系.监督分类的主要方法最大似然判别法.也称为贝叶斯(Bayes)分类,是基于图像统计的监督分类法,也是典型的和应用最广的监督分类方法.它建立在Bayes准则的基础上,偏重于集群分布的统计特性,分类原理是假定训练样本数据在光谱空间的分布是服从高斯正态分布规律的,做出样本的概率密度等值线,确定分类,然后通过计算标本(像元)属于各组(类)的概率,将标本归属于概率最大的一组.用最大似然法分类,具体分为三步:首先确定各类的训练样本,再根据训练样本计算各类的统计特征值,建立分类判别函数,最后逐点扫描影像各像元,将像元特征向量代入判别函数,求出其属于各类的概率,将待判断像元归属于最大判别函数值的一组.Bayes判别分类是建立在Bayes决策规则基础上的模式识别,它的分类错误最小精度最高,是一种最好的分类方法.但是传统的人工采样方法由于工作量大,效率低,加上人为误差的干扰,使得分类结果的精度较差.利用GIS数据来辅助Bayes分类,可以提高分类精度,再通过建立知识库,以知识来指导分类的进行,可以减少分类错误的发生[1],这正是Bayes分类的发展趋势和提高其分类精度的有效途径.神经元网络分类法.是最近发展起来的一种具有人工智能的分类方法,包括BP神经网络、Kohonen神经网络、径向基神经网络、模糊神经网络、小波神经网络等各种神经网络分类法.BP神经网络模型(前馈网络型)是神经网络的重要模型之一,也是目前应用最广的神经网络模型,它由输入层、隐含层、输出层三部分组成,所采取的学习过程由正向传播过程和反向传播过程组成.传统的BP网络模型把一组样本的输入/输出问题作为一个非线性优化问题,它虽然比一般统计方法要好,但是却存在学习速度慢,不易收敛,效率不高的缺点.采用动量法和学习率自适应调整的策略,可以提高学习效率并增加算法的可靠性[3].模糊分类法.由于现实世界中众多的自然或半自然现象很难明确划分种类,反映在遥感影像上,也存在一些混合像素问题,并有大量的同谱异物或者同物异谱现象发生,使得像元的类别难以明确确定.模糊分类方法忽略了监督分类的训练过程所存在的模糊性,沿用传统的方法,假定训练样本由一组可明确定义、归类,并且具有代表性的目标(像素)构成.监督分类中的模糊分类可以利用神经元网络所具有的良好学习归纳机制、抗差能力和易于扩展成为动态系统等特点,设计一个基于神经元网络技术的模糊分类法来实现.模糊神经网络模型由ART发展到ARTMAP再到FasART、简化的FasART模型[4],使得模糊神经网络的监督分类功能不断完善、分类精确度不断增加.最小距离分类法和Fisher判别分类法.它们都是基于图像统计的常用的监督分类法,偏重于几何位置.最小距离分类法的原则是各像元点划归到距离它最近距离的类别中心所在的类,Fisher判别分类采用Fisher准则即“组间最大距离”的原则,要求组间距离最大而组内的离散性最小,也就是组间均值差异最大而组内离差平方和最小.用这两种分类法进行分类,其分类精度取决于对已知地物类别的了解和训练统计的精度,也与训练样本数量有关.针对最小距离分类法受模式散布影响、分类精度不高的缺点,人们提出了一种自适应的最小距离分类法,在训练过程中,将各类样本集合自适应地分解为子集树,定义待分类点到子集树的距离作为分类依据[2],这种方法有效地提高了最小距离法的分类正确率和分类速度,效率较高.Fisher判别分类也可以通过增加样本数量进行严密的统计分类来增加分类精度。

遥感图像的分类方法

遥感图像的分类方法

遥感图像的分类方法
遥感图像的分类方法常见有以下几种:
1. 监督分类方法:该方法需要先准备一些具有标签的样本数据集进行训练,并从中学习模式进行分类。

常见的监督分类方法包括最大似然分类、支持向量机等。

2. 无监督分类方法:该方法不需要标签样本数据集,通过对图像像素进行统计分析和聚类来确定类别。

常见的无监督分类方法包括K均值聚类、高斯混合模型等。

3. 半监督分类方法:该方法结合监督和无监督分类方法的优势,同时利用有标签和无标签样本数据进行分类。

常见的半监督分类方法包括标签传播、半监督支持向量机等。

4. 深度学习分类方法:近年来,随着深度学习方法的发展,基于卷积神经网络(CNN)的遥感图像分类方法变得流行。

这些方法通过搭建深度学习网络模型并使用大量的标签样本进行训练,能够实现较高的分类精度。

除了以上几种方法外,还有基于纹理特征、形状特征等的分类方法。

不同的分类方法适用于不同的遥感图像场景和实际需求。

综合考虑数据集大小、分类效果、计算时间等因素,选择合适的分类方法对于遥感图像的分类任务非常重要。

监督分类的基本原理及算法

监督分类的基本原理及算法
漏分误差和制图精度互补,而错分误差与 用户精度互补。
精度评价
当检查误差矩阵中各种数据时,其地图用 户看到的是分类图中各个类别的可信度,而 制图分析者关心的是用于产生这张分类图的 方法的好坏。从用户角度,误差矩阵显示的 是用户精度,从制图者角度,其显示的制图 精度。计算俩者时,其主要的区别是精度计 算时的基数。对制图精度,基数是参照图上 各类别的总量;而对用户精度,基数是被评 价图像上的各类别的总数量。
最大似然法(贝叶斯)
最大似然法
为如P(w了果使我i)是用们类最没别大有w似更i然被好法观的,测办必到法须的,预概可先率以求,用出所样P以品(w是频可率i)P以代(X预替|w测,i)的即. 。
品P(的w数i)=目nn,w 且,其n中1+nnw为2+.已..+知n分k=类n 数;或据者中我来们自可第以W令总先体样
i
i
.
w w 用其对数 logP( )+logP(X| ) 来代替。
i
i
最大似然法
T

= P( )P(X |
P E E w w w w E 12
21
E 则表示类别
误分类到2 类别
的2)概dx 率 。T P(
)P(X |
1
)d
1
x
w w 12
E 则表示类别
2误分类到类别
1的概率。
)2
2
2
a 2a
a1
比较D(X ,G1)与D(X ,G2)距离,按距离最近准则判别归类。
(2)如果距离定义采用马氏距离,则
式D(2 中X,,Gi)u1,=u(2X,V-1u,Vi )2T分(V别i )为1(GX1, uGi )2,的i 均1,值2 矢量和协方差阵。

监督分类方法操作方法

监督分类方法操作方法

监督分类方法操作方法
监督分类方法是一种利用已知类别数据进行分类的方法,常见的监督分类方法包括决策树、支持向量机、逻辑回归、朴素贝叶斯等。

下面介绍其中一种操作方法:
以决策树为例,操作步骤如下:
1. 数据准备。

准备训练数据集和测试数据集,并对数据进行预处理,如缺失值填充、数据归一化等。

2. 特征选择。

选取最能代表样本特征的属性作为分割特征,一般可以使用信息增益或者Gini指数等方法进行特征选择。

3. 构建决策树。

根据选定的特征切分样本空间,直到满足条件(如准确度达到预设要求,树深度达到限制等),生成决策树。

4. 模型评估。

使用测试集进行模型评估,常用的评估指标包括准确率、召回率、F1值等。

5. 调参优化。

通过调整模型参数来提高模型准确度,如最大深度、节点划分方式等。

6. 模型应用。

将模型用于新数据的分类,预测新样本的标签类别。

以上是基本的操作步骤,具体实现还需要根据具体算法进行优化和调整。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

基于光谱的影像的分类可分为监督与非监督分类,这类分类方法适合于中低分辨率的数据,根据其原理有基于传统统计分析的、基于神经网络的、基于模式识别的等。

本专题以ENVI的监督与非监督分类的实际操作为例,介绍这两种分类方法的流程和相关知识。

有以下内容组成:监督分类非监督分类分类后处理监督分类监督分类:又称训练分类法,用被确认类别的样本像元去识别其他未知类别像元的过程。

它就是在分类之前通过目视判读和野外调查,对遥感图像上某些样区中影像地物的类别属性有了先验知识,对每一种类别选取一定数量的训练样本,计算机计算每种训练样区的统计或其他信息,同时用这些种子类别对判决函数进行训练,使其符合于对各种子类别分类的要求,随后用训练好的判决函数去对其他待分数据进行分类。

使每个像元和训练样本作比较,按不同的规则将其划分到和其最相似的样本类,以此完成对整个图像的分类。

遥感影像的监督分类一般包括以下6个步骤,如图1所示:图1监督分类步骤1、类别定义/特征判别根据分类目的、影像数据自身的特征和分类区收集的信息确定分类系统;对影像进行特征判断,评价图像质量,决定是否需要进行影像增强等预处理。

这个过程主要是一个目视查看的过程,为后面样本的选择打下基础。

本例是以ENVI自带Landsat tm5数据为数据源,类别分为:林地、草地/灌木、耕地、裸地、沙地、其他六类。

2、样本选择为了建立分类函数,需要对每一类别选取一定数目的样本,在ENVI中是通过感兴趣区(ROIs)来确定,也可以将矢量文件转化为ROIs文件来获得,或者利用终端像元收集器(Endmember Collection)获得。

本例中使用ROIs方法,打开分类图像,在Display->Overlay->Region of Interest,默认ROIs为多边形,按照默认设置在影像上定义训练样本。

如图2所示,设置好颜色和类别名称(支持中文名称)。

在ROIs面板中,选择Option->Compute ROI Separability,计算样本的可分离性。

如图3所示,表示各个样本类型之间的可分离性,用Jeffries-Matusita, Transformed Divergence参数表示,这两个参数的值在0~之间,大于说明样本之间可分离性好,属于合格样本;小于,需要重新选择样本;小于1,考虑将两类样本合成一类样本。

图2训练样本的选择图3样本可分离性计算报表在计算样本可分离性时候,可能会出现以下错误信息(SingularValue encountered…),经常出现在影像波段非常多的情况。

出现这个情况主要是这一类样本的样本点数量太少,解决方法是多选择样本点。

图4样本可分离性计算报错在选择样本的时候,可以使用一些增强的手段辅助样本的选择,如主成分分析、波段合成等。

3、分类器选择根据分类的复杂度、精度需求等确定哪一种分类器。

目前监督分类可分为基于传统统计分析学的,包括平行六面体、最小距离、马氏距离、最大似然,基于神经网络的,基于模式识别,包括支持向量机、模糊分类等,针对高光谱有波谱角(SAM),光谱信息散度,二进制编码。

下面是几种分类器的简单描述。

表几种监督分类器说明分类器说明平行六面体(Parallelpiped)根据训练样本的亮度值形成一个n维的平行六面体数据空间,其他像元的光谱值如果落在平行六面体任何一个训练样本所对应的区域,就被划分其对应的类别中。

平行六面体的尺度是由标准差阈值所确定的,而该标准差阈值则是根据所选类的均值求出。

最小距离(Minimum Distance)利用训练样本数据计算出每一类的均值向量和标准差向量,然后以均值向量作为该类在特征空间中的中心位置,计算输入图像中每个像元到各类中心的距离,到哪一类中心的距离最小,该像元就归入到哪一类。

马氏距离(Mahalanobis Distance)计算输入图像到各训练样本的马氏距离(一种有效的计算两个未知样本集的相似度的方法),最终统计马氏距离最小的,即为此类别。

最大似然(Likelihood Classification)假设每一个波段的每一类统计都呈正态分布,计算给定像元属于某一训练样本的似然度,像元最终被归并到似然度最大的一类当中。

神经网络(Neural Net Classification)指用计算机模拟人脑的结构,用许多小的处理单元模拟生物的神经元,用算法实现人脑的识别、记忆、思考过程应用于图像分类。

支持向量机支持向量机分类(SVM)是一种建立在统计学习理论4、影像分类基于传统统计分析的分类方法参数设置比较简单,这里选择支持向量机分类方法。

主菜单下选择Classification > Supervised > Support Vector Machine。

按照默认设置参数输出分类结果,如图5所示。

图5支持向量机分类器参数设置图6支持向量机分类结果5、分类后处理分类后处理包括的很多的过程,都是些可选项,包括更改类别颜色、分类统计分析、小斑点处理(类后处理)、栅矢转换等操作。

(1)更改类别颜色可以在Interactive Class Tool面板中,选择Option->Edit class colors/names更改,也可以在Display->Color Mapping->Class Color Mapping。

如下图7所示,直接可以在对应的类别中修改颜色。

也可以根据一个显示的RGB影像来自动分配类别颜色,打开主菜单->Classification->Post Classification->Assign Class Colors。

图7类别颜色的更改图8类别颜色更改后的效果图9自动颜色更改的效果图(2)分类统计分析主菜单->Classification->Post Classification->Class Statistics。

如图10所示,包括基本统计:类别的像元数、最大最小值、平均值等,直方图,协方差等信息。

图10分类结果统计(3)小斑点处理(类后处理)运用遥感影像分类结果中,不可避免地会产生一些面积很小的图斑。

无论从专题制图的角度,还是从实际应用的角度,都有必要对这些小图斑进行剔除和重新分类,目前常用的方法有Majority/Minority分析、聚类(clump)和过滤(Sieve)和。

这些工具都可以在主菜单->Classification->Post Classification中找到。

Majority/Minority分析和聚类(clump)是将周围的“小斑点”合并到大类当中,过滤(Sieve)是将不符合的“小斑点”直接剔除。

如下图11为Majority分析的结果。

图11类后处理结果图(4)栅矢转换打开主菜单->Classification->Post Classification->Classification to Vector,可以将分类后得到的结果转化为矢量格式,或者主菜单->Vector->Raster to Vector,在选择输出参数时候,可以选择特定的类别,也可以把类别单独输出为矢量文件或者一个矢量文件。

图12栅矢转换面板6、结果验证对分类结果进行评价,确定分类的精度和可靠性。

有两种方式用于精度验证:一是混淆矩阵,二是ROC曲线,比较常用的为混淆矩阵,ROC曲线可以用图形的方式表达分类精度,比较形象。

真实参考源可以使用两种方式:一是标准的分类图,二是选择的感兴趣区(验证样本区)。

两种方式的选择都可以通过主菜单->Classification->Post Classification->Confusion Matrix或者ROC Curves来选择。

真实的感兴趣区参考源的选择可以是在高分辨率影像上选择,也可以是野外实地调查获取,原则是获取的类别参考源的真实性。

由于没有更高分辨率的数据源,本例中就把原分类的TM影像当作是高分辨率影像,在上面进行目视解译得到真实参考源。

直接利用ROI工具,在TM图上均匀的选择6类真实参考源,如图13所示。

选择主菜单->Classification->Post Classification->ConfusionMatrix->Using Ground Truth ROIs。

将分类结果和ROI输入,软件会根据区域自动匹配,如不正确可以手动更改。

点击ok后选择报表的表示方法(像素和百分比),就可以得到精度报表。

图13真实感兴趣区参考源选取图14验证操作面板图15分类精度评价混淆矩阵这里说明一下混淆矩阵中的几项评价指标,如下:总体分类精度等于被正确分类的像元总和除以总像元数。

被正确分类的像元数目沿着混淆矩阵的对角线分布,总像元数等于所有真实参考源的像元总数,如本次精度分类精度表中的Overall Accuracy = (1849/2346) %。

Kappa系数它是通过把所有真实参考的像元总数(N)乘以混淆矩阵对角线(X)的和,KK再减去某一类中真实参考像元数与该类中被分类像元总数之积之后,再除以像元总数的平方减去某一类中真实参考像元总数与该类中被分类像元总数之积对所有类别求和的结果。

Kappa计算公式错分误差指被分为用户感兴趣的类,而实际属于另一类的像元,它显示在混淆矩阵里面。

本例中,林地有419个真实参考像元,其中正确分类265,12个是其他类别错分为林地(混淆矩阵中林地一行其他类的总和),那么其错分误差为12/419=%。

漏分误差指本身属于地表真实分类,当没有被分类器分到相应类别中的像元数。

如在本例中的耕地类,有真实参考像元465个,其中462个正确分类,其余3个被错分为其余类(混淆矩阵中耕地类中一列里其他类的总和),漏分误差为3/465=%制图精度是指分类器将整个影像的像元正确分为A类的像元数(对角线值)与A类真实参考总数(混淆矩阵中A类列的总和)的比率。

如本例中林地有419个真实参考像元,其中265个正确分类,因此林地的制图精度是265/419=%。

用户精度是指正确分到A类的像元总数(对角线值)与分类器将整个影像的像元分为A类的像元总数(混淆矩阵中A类行的总和)比率。

如本例中林地有265个正确分类,总共划分为林地的有277,所以林地的用户精度是265/277=%。

非监督分类非监督分类:也称为聚类分析或点群分类。

在多光谱图像中搜寻、定义其自然相似光谱集群的过程。

它不必对影像地物获取先验知识,仅依靠影像上不同类地物光谱(或纹理)信息进行特征提取,再统计特征的差别来达到分类的目的,最后对已分出的各个类别的实际属性进行确认。

目前比较常见也较为成熟的是ISODATA、K-Mean和链状方法等。

相关文档
最新文档