一种新的基于多示例学习的场景分类方法

合集下载

一种结合Fisher编码的多示例聚类算法

一种结合Fisher编码的多示例聚类算法

一种结合Fisher编码的多示例聚类算法
芮辰;陈艳平
【期刊名称】《皖西学院学报》
【年(卷),期】2022(38)2
【摘要】多示例学习中的数据是由包含多个示例的包所组成的,样本之间真实的相似性被正包中大量的假正例所掩盖。

为了拟合多示例数据真实的分布情况,提出了一种结合Fisher编码的多示例聚类算法MIFK-means。

首先通过Fisher编码在保留数据语义的同时对多示例数据进行归一化降维,然后通过示例层次的K-means聚类算法揭示多示例数据的分布情况。

在基准数据集上的实验表明,MIFK-means算法的聚类效果明显好于包层次的多示例K-means聚类算法,分类精度也可以和现有的经典多示例算法相媲美。

【总页数】5页(P45-49)
【作者】芮辰;陈艳平
【作者单位】合肥学院实验实训中心;合肥学院人工智能与大数据学院
【正文语种】中文
【中图分类】TP312.8
【相关文献】
1.结合Fisher编码和距离学习的非刚体三维检索方法
2.结合Fisher判别分析和稀疏编码的图像场景分类
3.一种基于多示例学习的动态样本集半监督聚类算法
4.一
种单层自动编码器的聚类算法研究5.结合度量融合和地标表示的自编码谱聚类算法
因版权原因,仅展示原文概要,查看原文内容请购买。

基于多示例学习的高分辨率遥感影像面向对象分类

基于多示例学习的高分辨率遥感影像面向对象分类

rmo esn ig i g c o dn ot eo jc r n e g lsiiain p rdg Ho g n o so jcsa eg n r tdb e t e sn ma ea c r ig t h beto i tdi eca sf t a a im. mo e e u bet r e e ae yi e ma c o m— a esg n ain meh dfrt a d t e bet s d a n tn e , e h  ̄mu dv re d n i n tn e b r iig b g g e me tto to i , n h n o jcs u e sisa cs g tt ema s m ies e st isa c y tann a s y
Ab ta t I utp e i s a c e r ig,h a sa e u e s ta n n a is a d t e g a fla n n s p e itt e l b l f s r c : n m li l t n e la n n t e b g r s d a r i i g s mp e , n h o l e r ig i r d c h a e n o o
修 订 日 期 :0 1 1 一 O 2 1— 1 l
基 金项 目: 国家 自然科学 基金 项 目( 0 7 1 5 ; 苏省 自然科 学基金 ( K2 1 1 2 。 4 8 19)江 B 0 0 8 )
作 者简 介 : 里木 ・ 阿 赛买 提 ( 9 4 男 , 1 8  ̄) 维吾 尔族 , 士 , 硕 主要 研究 方 向 : 遥感 图像处 理与应 用 、 器学 习在遥 感 图像 分析 中的应用 。 机
际应用 中都 取 得 了大 量 成 果 [ 。在 多 示 例 学 习 1 ] 中 , 由示 例组 成 的包作 为训 练样 本 , 将 包具 有概 念标

朴素贝叶斯模型的类别

朴素贝叶斯模型的类别

朴素贝叶斯模型的类别全文共四篇示例,供读者参考第一篇示例:朴素贝叶斯模型的分类主要分为三类:高斯朴素贝叶斯、多项式朴素贝叶斯和伯努利朴素贝叶斯。

接下来分别介绍这三种不同类型的朴素贝叶斯模型及其应用场景。

一、高斯朴素贝叶斯高斯朴素贝叶斯模型假设特征的分布服从高斯分布,即特征的概率密度函数为高斯分布。

这种模型适用于连续型特征,例如数值型数据。

在实际应用中,高斯朴素贝叶斯模型通常用于处理连续型数据的分类问题,如人脸识别、手写数字识别等。

二、多项式朴素贝叶斯多项式朴素贝叶斯模型假设特征的分布服从多项式分布,即特征是离散型的且取值范围有限。

这种模型适用于文本分类等问题,其中特征通常是单词或短语的出现次数或权重。

在实际应用中,多项式朴素贝叶斯模型常用于文本分类、垃圾邮件过滤等问题。

朴素贝叶斯模型是一种简单且高效的分类算法,具有快速的训练速度和较好的分类性能。

不同类型的朴素贝叶斯模型适用于不同类型的特征分布和问题类型,可以根据具体情况选择合适的模型来解决分类问题。

在实际应用中,朴素贝叶斯模型被广泛应用于文本分类、垃圾邮件过滤、情感分析等领域,并取得了不错的效果。

第二篇示例:朴素贝叶斯是一种被广泛使用的机器学习分类算法,其原理简单但却非常有效。

它的原理基于贝叶斯定理,通过对已知数据集的特征进行概率推断来对未知数据进行分类。

朴素贝叶斯模型最初是由英国数学家托马斯·贝叶斯提出的,它的核心思想是基于特征之间的独立性假设。

朴素贝叶斯模型的类别主要可以分为三种:高斯朴素贝叶斯、多项式朴素贝叶斯和伯努利朴素贝叶斯。

1. 高斯朴素贝叶斯高斯朴素贝叶斯是一种适用于连续型数据的分类算法。

在高斯朴素贝叶斯中,假设特征的概率符合高斯分布,通过计算每个特征在每个类别下的概率密度函数来进行分类。

因为高斯分布在实际数据中很常见,因此高斯朴素贝叶斯在实际应用中有着广泛的应用。

伯努利朴素贝叶斯也适用于离散型数据的分类问题,但与多项式朴素贝叶斯不同的是,伯努利朴素贝叶斯适用于二值型数据,即特征只有两种取值。

探索人工智能:机器学习、深度学习及其应用领域

探索人工智能:机器学习、深度学习及其应用领域

探索人工智能:机器学习、深度学习及其应用领域1. 引言1.1 概述人工智能(Artificial Intelligence,简称AI)是目前科技领域研究的热点之一,其核心目标是使机器能够模仿或超越人类在某些任务上的智能表现。

在过去几十年里,随着计算机技术和数据处理能力的不断提升,人工智能得到了长足的发展,并广泛应用于各个行业。

近年来,机器学习(Machine Learning)和深度学习(Deep Learning)这两个重要的子领域引发了巨大关注和突破。

1.2 背景机器学习是一种基于数据和统计学方法建立模型、通过算法让计算机自动从数据中学习和改进性能的方法。

相比传统编程手段,机器学习允许计算机根据已有数据进行自主学习和预测,并逐渐优化模型的精度与准确性。

深度学习则是机器学习算法中较为高级且具有代表性的一个分支。

它主要利用神经网络模型来实现对复杂问题的建模与解决。

1.3 目的本文旨在探讨机器学习和深度学习的基本概念、主要算法以及它们在各个应用领域中的实际应用。

通过对自然语言处理、计算机视觉和自动驾驶技术等前沿领域进行案例分析,我们希望能够揭示人工智能技术对于现代社会发展的重要性,并展望其未来的发展趋势。

同时,我们也将讨论影响人工智能发展的因素,以期为相关领域的研究者和从业者提供一定的参考和启示。

以上内容为文章“1. 引言”部分的详细清晰撰写。

2. 机器学习2.1 概念机器学习是人工智能领域的一个重要分支,它关注如何让计算机系统从数据中自动学习并改善性能。

简而言之,机器学习是指通过算法和统计模型,使计算机具备从数据中提取知识和经验的能力,进而实现对未知数据进行预测和决策。

2.2 主要算法在机器学习中,存在各种不同类型的算法用于解决不同类型的问题。

主要的机器学习算法包括:- 监督学习:该算法使用标记好的训练数据集来进行训练,并根据这些数据集预测新的未标记数据。

常见的监督学习算法有线性回归、逻辑回归、决策树和支持向量机等。

学习的名词解释

学习的名词解释

学习的名词解释各类学习名词调研因工作需要,重温并总结了一些学习方法名词:监督学习、非监督学习、半监督学习、主动学习、多实例学习等。

首先简单介绍一下各种学习名词的意思:监督学习已知数据和其一一对应的标签,训练一个智能算法,将输入数据映射到标签的过程。

监督学习是最常见的学习问题之一,就是人们口中常说的分类问题。

比如已知一些图片是猪,一些图片不是猪,那么训练一个算法,当一个新的图片输入算法的时候算法告诉我们这张图片是不是猪。

无监督学习已知数据不知道任何标签,按照一定的偏好,训练一个智能算法,将所有的数据映射到多个不同标签的过程。

相对于有监督学习,无监督学习是一类比较困难的问题,所谓的按照一定的偏好,是比如特征空间距离最近,等人们认为属于一类的事物应具有的一些特点。

举个例子,猪和鸵鸟混杂在一起,算法会测量高度,发现动物们主要集中在两个高度,一类动物身高一米左右,另一类动物身高半米左右,那么算法按照就近原则,75厘米以上的就是高的那类也就是鸵鸟,矮的那类是第二类也就是猪,当然这里也会出现身材矮小的鸵鸟和身高爆表的猪会被错误的分类。

半监督学习已知数据和部分数据一一对应的标签,有一部分数据的标签未知,训练一个智能算法,学习已知标签和未知标签的数据,将输入数据映射到标签的过程。

半监督通常是一个数据的标注非常困难,比如说医院的检查结果,医生也需要一段时间来判断健康与否,可能只有几组数据知道是健康还是非健康,其他的只有数据不知道是不是健康。

那么通过有监督学习和无监督的结合的半监督学习就在这里发挥作用了。

直推学习(Transductive learning):没有标记的数据是测试数据,这个时候可以用test的数据进行训练。

这里需要注意,这里只是用了test数据中的feature而没有用label,所以并不是一种欺骗的方法。

归纳学习(Inductive learning):没有标签的数据不是测试集。

主动学习主动学习和半监督学习很相似,都需要一部分有标签数据和部分无标签数据。

timesnet分类原理

timesnet分类原理

timesnet分类原理全文共四篇示例,供读者参考第一篇示例:TimesNet分类原理是一种广泛应用于网络数据传输领域的技术,它通过对数据包进行分类和标记,使得在网络传输过程中能够根据分类信息对数据包进行不同的处理。

TimesNet分类原理主要包括基于五元组(源IP地址、目的IP地址、协议、源端口号、目的端口号)的分类和基于应用层协议的分类两种方式。

基于五元组的分类方式是指根据数据包的五个重要参数进行分类,通过比较这些参数的不同取值,确定数据包的分类类型。

在网络传输过程中,不同的数据包可能需要经过不同的处理流程,因此根据这些五元组参数进行分类是十分必要的。

通过对数据包进行分类,可以实现对不同类型数据包的针对性处理,从而提高网络传输的效率和安全性。

另一种TimesNet分类原理的方式是基于应用层协议的分类,即根据数据包所使用的应用层协议进行分类。

在网络通信中,不同的应用层协议通常对应不同的应用场景和需求,因此通过对数据包所使用的应用层协议进行分类,可以更好地对数据包进行管理和控制。

通过对数据包的应用层协议进行分类,可以实现对不同应用协议的优化处理,从而提高网络传输的效率和质量。

在实际应用中,TimesNet分类原理通常会结合使用这两种分类方式,通过综合考虑五元组和应用层协议的信息,确定数据包的分类类型,从而实现对数据包的详细管理和控制。

通过合理使用TimesNet分类原理,可以有效提高网络传输的效率和安全性,满足不同用户的需求和要求。

TimesNet分类原理是一种十分重要的网络传输技术,通过对数据包进行分类和标记,可以实现对数据包的详细管理和控制,提高网络传输的效率和质量。

在今后的网络通信中,我们可以进一步深入研究和应用这一原理,为网络传输技术的发展和改进做出更大的贡献。

【文章2085字】第二篇示例:TimesNet分类原理是指一种基于时间关系的数据分类方法,通过对数据进行时间轴的分割和分类,以便更好地理解和分析数据。

基于多示例学习的异常行为检测方法研究的开题报告

基于多示例学习的异常行为检测方法研究的开题报告一、选题背景随着物联网技术的发展,各种智能设备的广泛应用,数据的生成和积累量不断增加,异常行为检测成为了重要的研究方向。

在各种领域的应用中,异常检测都有着广泛的应用。

例如,电力系统中的异常检测可以用于实时监测电力系统的状态,预测电力系统可能出现的故障等。

金融领域的异常检测可以用于监测账户资金的流动情况,及时发现交易异常等。

为了提高异常检测的准确性和性能,研究者们提出了多种异常检测方法,其中,基于多示例学习的方法因其自然的刻画异常行为和良好的泛化能力而备受关注。

二、研究内容本研究旨在探究基于多示例学习的异常行为检测方法。

具体来说,研究内容包括以下三个方面:1.多示例学习算法的基本原理和特点。

本研究将重点介绍多示例学习算法的基本原理,包括正例示例、负例示例和未标记示例的定义以及基于示例的分类算法的设计。

此外,本研究还将分析多示例学习算法的优缺点和应用场景。

2.异常行为检测的方法和常用算法。

本研究将介绍异常行为检测的基本原理,包括基于统计学的方法、基于机器学习的方法和基于深度学习的方法。

此外,本研究还将分析常用的异常行为检测算法的优缺点和应用场景。

3.基于多示例学习的异常行为检测算法的设计与实现。

本研究将基于多示例学习算法的基本原理和异常行为检测的方法,提出一种新的异常行为检测算法。

并使用不同的数据集进行测试,评估算法的检测准确性和性能。

此外,本研究还将探究多示例学习算法在异常行为检测中的应用前景。

三、研究意义本研究的意义在于:1. 对多示例学习算法的研究与探讨,拓展了多示例学习算法在异常行为检测中的应用。

2. 提出了一种新的基于多示例学习的异常行为检测算法,在增强现有异常检测算法的基础上提高了检测的准确性和性能。

3. 为相关领域的研究提供了一种新的思路和方法,拓宽了相关研究领域的研究方向。

四、研究方法本研究将采用如下方法:1.文献综述通过查阅相关文献对多示例学习和异常行为检测相关方法进行深度分析,总结归纳相关方法的优缺点和应用场景,为算法设计提供基础性的知识储备。

数据分析中的分类分析方法

数据分析中的分类分析方法数据分析是目前社会大数据时代的重要组成部分,在许多领域得到了广泛应用。

分类分析是数据分析中一种重要的方法,旨在将大量的数据分成几个有意义的组或类别,方便人们进行更深入的研究和分析。

本文将详细介绍分类分析的原理、方法及其在实际应用中的一些示例。

一、分类分析的原理分类分析的基本思想是将一个或多个变量与另一个变量联系起来,以识别出数据中的相似模式。

例如,将一批产品按颜色、尺寸、价格等属性进行分类,以便了解不同属性下销售情况的变化。

分类分析可以帮助我们识别子集中的共性和不同之处,以便理解更深入的关系。

分类分析所涉及的变量包括自变量和因变量。

自变量是可控的变量,对结果具有直接的影响;而因变量则是需要分析的变量,也是分类的目标。

分类分析的核心是通过自变量解释因变量的变化,确定数据集中的类别。

二、分类分析的方法根据分类分析所涉及的自变量和因变量,分析方法可以分为无监督学习和有监督学习两种。

1、无监督学习无监督学习适用于数据集没有标签或没有确定目标值的情况。

在无监督学习中,分类分析通过找出数据集中的相似模式,将其分成几个类别。

最常用的无监督学习方法是聚类分析。

聚类分析通常使用距离度量来测量不同样本点之间的相异程度,以确定类别的界限。

聚类算法可以分为层次聚类和基于原型的聚类。

层次聚类基于样本点之间的相似性,将相似的点合并成一组,直到所有点都属于同一个类别或者达到预先确定的类别数。

基于原型的聚类通过选择代表样本点来分组。

2、有监督学习有监督学习适用于数据集中有标签或固定目标值的情况。

在有监督学习中,分类分析的目标是通过自变量解释因变量的变化,确定数据集中的类别。

最常用的有监督学习方法是决策树分析和朴素贝叶斯分类。

决策树分析通过一系列的问题和回答来决定样本点应该被分配到哪个类别中。

决策树通常分成二叉树,在每个节点上使用一个测试来判断样本点是否满足条件。

朴素贝叶斯分类通过学习样本数据中的概率分布,来计算新的样本点属于每个类别的概率。

双层多示例集成学习

中 图分 类 号 :P 0 . T 3 16 D I1 .9 3ji n 10 O :0 36 /. s.0 7—14 .0 10 . 1 s 4 X 2 1 .5 叭
在 多 示 例 学 习 ( ut l is ne l rig m lpe nt c e nn , i a a
MI) , 练 集 由具 有 概 念 标 记 的包 组 成 , 是 L中 训 包 若干 示例 的集 合 , 如果包 被 标记 为正 , 则包 中至少 有一 个示 例 为正 ; 如果包 被 标记 为负 , 这个 包 中所
督 学 习的多示 例 学 习算 法 。该类 方法 主要 思想 是 将 多示 例 学 习 转化 成 监 督学 习 , A D E 如 N R WS提 出的支 持 向量机 的 m —S M 算 法和 MI V 算 i V —S M 法 JWA G 等 提 出 的 基 于 距 离 的 B ys n— , N aei a K N和 Cttn—K N算 法 J N ii ao N 。② 基 于非 监 督 学 习的多示 例 学 习算 法 , Z U 等 提 出 的多 示 例 如 HO 学 习 的聚类算 法 B mc 。③基 于 半 监督 学 习 和 ai 主 动学 习 的多示 例 学价 昂 贵 的情 况 , 用 未 标 记 利 数据 的学 习算 法 。如 R HM N 等提 出 的 M SL A A I IS ( ut l is ne sm m lpe nt c e i—spri d l rig 算 i a uevs e nn ) e a 法 ; H U 提 出 的 Mi S M ( lpe is n e ZO sV s mut l nt c i a
有 的示 例 都为 负 。多示 例学 习 中存 在 的最 大挑 战
1 多 示 例 集 成 学 习

敏感数据的分类分级方法-概述说明以及解释

敏感数据的分类分级方法-概述说明以及解释1. 引言1.1 概述随着互联网和信息技术的发展,大量的个人和机构数据被存储和处理。

其中,一部分数据属于敏感数据,包含个人隐私、商业机密和国家安全等方面的重要信息。

为了保护这些敏感数据的安全性和保密性,对其进行有效的分类和分级显得非常重要。

本文旨在介绍敏感数据的分类与分级方法。

首先,将对敏感数据进行定义,并根据其性质和特点进行分类。

其次,将探讨敏感数据分类的重要性和意义。

最后,将讨论敏感数据分类分级方法的必要性,并介绍一种基于机器学习的敏感数据分类分级方法。

通过对敏感数据进行分类和分级,可以更好地满足数据安全和保密的需求。

不同类别和级别的敏感数据需要采用不同的保护措施和处理方式,以提供更加细致和有效的数据保护措施。

同时,对敏感数据进行分类和分级也有助于管理和规范数据的使用和共享,减少数据泄露和滥用的风险。

在本文的后续章节中,将详细介绍敏感数据的定义与分类,探讨敏感数据分类的重要性,并提出基于机器学习的敏感数据分类分级方法。

该方法通过应用机器学习算法对数据进行分析和学习,能够自动识别和分类敏感数据,并按照一定的级别进行分级,从而实现对敏感数据的智能化管理和保护。

通过本文的研究和探讨,相信能够为敏感数据的分类和分级提供一个全面且有效的方法。

这对于数据安全和保密具有重要的意义,能够帮助个人和机构更好地保护和管理敏感数据,降低数据泄露和滥用的风险,为信息社会的健康发展提供有力支撑。

文章结构可以帮助读者在阅读过程中更好地理解和掌握文章的内容组织。

本文将按照以下结构进行阐述敏感数据的分类分级方法:1. 引言1.1 概述:介绍敏感数据的概念和重要性,以及数据泄露对个人和组织的潜在风险。

1.2 文章结构:简要说明本文的组织框架和各个章节的内容,帮助读者预览整个文章的结构。

1.3 目的:阐明本文的目的和写作动机,为后续内容的阐述奠定基础。

2. 正文2.1 敏感数据的定义与分类:对敏感数据进行界定,并介绍常见的敏感数据分类方式,如个人身份信息、金融数据、健康数据等。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
一种新的基于多示例学习的场景分类方法
王刚 1,许信顺 1
(1.山东大学计算机科学与技术学院,山东省 济南市 邮编 250101)
摘要:多示例学习是近年来才出现的一种新的学习框架,并以其对多义性对象的出色表示能力成功用在图像分类任务中。 论文首先提出了一种新的图像多示例包生成方式, 方法采用特征的概率分布表示图像, 并对图像像素分布学习一个高斯混合 模型,将每个高斯分布作为一个示例,从而生成图像的多示例包。然后,论文在对图像进行分类时,采用了信息瓶颈聚类把 多示例包转化成单示例,从而将传统的单示例分类器用在该问题上。最后,为了提高分类器的泛化能力,对多个分类器进行 了集成。为测试论文提出方法的有效性,文章选取了五类自然场景图像进行试验,结果显示所提出的方法平均性能优于当前 常用的一些多示例学习算法。 关键词: 多示例学习; 信息瓶颈聚类; 高斯混合模型; 期望最大化算法;场景分类;K-L 散度 文献标识码:A
p(zk = 1 ) = α k 就表示 zk=1 的先验概率, 而 p(x | z k = 1 ) = N(x; μ k ,σ k ) ,则是 x 对 z 的条件分布。因此,
zk=1 的后验概率可以表示为:
γ(z k ) = p(zk = 1 | x) =
p(zk = 1 )p(x | z k = 1 )
p(z
j=1 K j
K
j
= 1 )p(x | z j = 1 )
(3)
=
α k N(x; μ k ,σ k )
α
j=1
N(x; μ j ,σ j )
EM 算法通过迭代更新参数集 θ = ( α, μ, σ ) 和后验概率 γ(zk ) ,具体过程如下: E-步:计算式(3)中的后验概率 γ(zk ) 。 M-步:利用公式(3)得到的 γ(zk ) 重新计算参数集 Θ:
2 提出的算法
论文提出的算法可分为三个部分:1. 多示例包的生成:传统的方法都将图像表示为离散的特征向量, 难免丢失图像信息。为表示更多的图像信息,提出的算法将图像看作一个高斯混合分布,其中每个高斯分 布看作一个示例,整个高斯混合分布作为一个多示例包。2. 多示例问题的转化:为了使传统的单示例学习 算法能够对多示例问题进行学习分类,算法第二步通过聚类将每个多示例包转化成一个 d 维特征向量,从 而将多示例问题转化成传统的单示例问题。但是,由于第一步生成的多示例包是概率分布的形式,传统的 聚类算法不再适用,因此算法中使用了信息瓶颈法来对多示例包进行聚类。3.分类器的集成:在第二步通 过聚类将多示例转化为单示例过程中,通过设置不同的聚类中心数,可以生成不同向量长度的单示例,不 同的特征长度也往往具有不同的信息表达能力,为了充分利用不同长度的单示例表示能力,论文使用了集 成的学习方法,将基于不同长度特征的分类器进行了集成,从而得到更好的泛化能力。以下内容是对每一 步的详细介绍。 2.1 多示例包的生成 传统图像包的生成方式中每个包都是图像子区域的离散特征,对图像信息表示力度不够,论文提出的 多示例包生成方式将示例建模成一个图像特征的概率分布。假设一副图像的像素是从多个高斯分布中抽取 的,每个像素用像素颜色、空间位置表示,那么一副图像可以表示为如下高斯混合模型:
f(x;θ) = α k Ν(x; μk ,σ k )k=1KFra bibliotek(1)
其中 x 是 D 维的像素特征(像素颜色和空间位置),θ 是高斯混合分布的参数集,另外,
N(x; μk ,σ k ) =
1 ( 2π )
D/2
σ k
1/ 2
1 exp (x μk )T σ 1 (x μk k 2
1 相关工作
1.1 多示例学习算法 T. G. Dietterich 等 [1] 提出了三个 APR (axis-parallel rectangle) 学习算法来解决多示例药物活性预测问 题。他们指出,忽略问题的多示例本质的算法表现非常不尽人意。之后,诸多研究者提出了针对多示例学 习的算法,比如 O.Maron 和 T. Lozano Pé rez [2] 提出了多样性密度算法 (Diverse Density);Q.Zhang 和 SA.Goldman [3] 将 EM (Expectation Maximization) 算法和 DD 结合,提出了 EM-DD 算法。另外,有很多 研究者拓展传统的单示例学习算法用到多示例学习任务中[4-7]。2006 年 Z.H.Zhou 等 [8] 提出了一个基于 聚类的多示例学习算法 CCE。CCE 通过聚类将多示例问题转化成单示例问题,用传统单示例分类器作预 测。Z.H.Zhou 等实验证明 CCE 方法在多示例问题中表现出色。 1.2 图像多示例包生成 1998 年 O.Maron 和 A.L.Ratan [9] 将多示例学习用在了场景分类问题上。他们把每一副图像都看作 一个包,其中的每个示例是图像的某一部分子图的特征,然后用 DD 算法进行分类。他们同时提出了多种 产生包的方式(图 2),并且指出不同的生成包的方法对实验结果有显著的影响。
收稿日期:yyyy-mm-dd 基金项目:项目名称(编号)山东省自然科学基金(Q2008G06),教育部留学归国人员科研启动基金,山东大学自主创新基金(2009TS033) 作者简介:王刚(1987-),男,硕士研究生,研究方向为图像标注、机器学习.Email: g.wang1108@ 许信顺(1975-),男,副教授,博士,研究方向为机器学习、数据挖掘、信息检索和生物信息学. Email: xuxinshun@
)
(2)
是一个 D 元高斯分布,均值为 μ k ,方差为 σ k , α k 是第 k 个高斯分布的混合概率。 为了估计以上高斯混合模型的参数 θ = ( α, μ, σ ) ,论文使用 EM 算法。首先, 假设 zn 是一个与第 n 个像 素对应的 K 维二值变量,其中仅有一维是 1,其它维均是 0,如果 znk=1 表示像素点 n 属于第 k 个高斯分 布。为了表述方便,在此假设 z 是某个像素所对应的 K 维二值变量,那么
图 1. 具有多义性的图像示例 Figure 1. Example of an ambiguous image 多示例学习中包的生成方式是影响分类器性能的一个重要方面。因此,文章首先提出了一种新的图像 多示例包生成算法。算法将一副图像的像素点看作是从多个高斯分布中提取的,对每一副图像学习一个高 斯混合模型作为多示例包,混合模型的所有混合部件作为相应示例。然后,为了利用生成的多示例包进行 分类,文章使用信息瓶颈聚类将多示例包的表示转化成单示例的特征向量,从而可以利用传统的单示例学 习算法进行学习。另外,为了提高分类器的泛化能力,论文生成了不同长度的单示例特征向量,在不同长 度的单示例特征向量上训练得到了多个分类器,并对这些分类器进行了集成。为了测试提出的包生成方式 的有效性,文章将我们的方法与 Iterated-discrim APR 算法、多样性密度 (Diverse Density,简称 DD) 法、 Citation-kNN、miSVM 进行了比较,在五类图像的数据集上的实验结果显示该方法平均性能优于上述四 种算法。 论文后续组织如下:第二节介绍一些多示例图像分类的相关工作,第三节详细讲述文章提出的算法。 第四节是算法的实验结果,分析和比较。最后对论文进行总结。
图 2. O.Maron 等[9]的 5 种多示例包生成方式 Figure 2. O.Maron et al.’s 5 ways of generating MI bags 图像分割和聚类常被用作生成图像多示例包,比如 C. Yang 和 T. Lozano Pérez [10]将图像分割成 多个相交的子区域,对区域进行滤波、采样得到特征向量作为示例,所有示例组合起来形成包,最后使用 加权相关系数来衡量图像相似度。2003 年,Z.H.Zhou 等[11]提出了一个基于 SOM 聚类的包生成方法。图 像像素按照颜色和位置特征聚类,聚类融合成指定数目的子区域,统计每个子区域的颜色特征作为示例。 O.Maron 等[9]证明多示例图像分类中图像包的生成方式对分类结果非常重要。前人工作中包的生成 基本都是对图像的子区域提取颜色等特征,是一个离散表示,图像信息难免丢失。因此,本文使用图像 特征的概率分布表示一个包:算法对每幅图像提取一个高斯混合分布作为一个包,混合分布中的每个高 斯分布看作一个示例。为使用生成的多示例包进行分类,算法通过信息瓶颈聚类将多示例包转化成一个实 数表示的 d 维特征向量,利用传统单示例学习算法进行学习。下一节将详细讲述所提出的算法。
0 引言
多示例学习是 T. G. Dietterich 等在研究药物活性预测问题[1]时提出的。在多示例学习框架中,每个样 本被称作一个包,每个包由多个示例组成。自提出后,多示例学习在现实问题中得到普遍应用,特别是当 描述的对象具有多义性时。而在场景分类任务中,图像的内容往往是具有多义性的,比如,图 1 中所包含 的高层语义有“云” 、 “山”和“海” 。在这种情况下,如果用单示例来表示该图像,分类会造成分类准确 度的下降。而如果采取多示例的表示方法,比如可以把图 1 分割为 3 个子图,然后从每个子图中提取有效 的特征向量组成一个示例,这样整幅图像被表示为一个包含三个示例的包,图像的所有语义信息就都被包 含进了图像表示中。
中图分类号:TP391.4
A new Multi-Instance learning method for scene classification
Gang Wang1,Xinshun Xu1
(1.School of Computer Science and Technology, Shandong University,Jinan 250101,China) Abstract: Multi-Instance learning (MIL) is a learning framework proposed recently, and has been successfully used in scene classification. This paper first proposes a new image Multi-Instance (MI) bag generating method, which models an image with a Gaussian Mixed Model (GMM). The generated GMM is treated as an MI bag and the components of the GMM are the instances of the corresponding bag. Then, information bottleneck clustering is employed to transform the MIL problem into single-instance learning problem so that single-instance classifiers can be used for classification. Finally, ensemble learning is involved to further enhance classifiers’ generalization ability. Experimental results show that the proposed method is superior to some common MI algorithms on average in a 5-class scene classification task. Key Words: Multi-Instance learning; Information Bottleneck; Gaussian Mixed Model; Expectation Maximization; scene classification; Kullback-Leibler Divergence
相关文档
最新文档