一种基于n_gram短语的文本聚类方法研究

合集下载

关键词提取算法研究与评价

关键词提取算法研究与评价

关键词提取算法研究与评价关键词提取是信息检索、自然语言处理和文本挖掘等领域中的重要任务,它能够自动从文本中提取出具有代表性和概括性的关键词,对于文章的分类、摘要生成、信息聚类等应用具有重要意义。

本文将对关键词提取算法进行研究与评价,探讨不同算法的优缺点以及应用场景。

一、传统方法1.1 统计方法统计方法是最早被提出并被广泛应用的关键词提取算法之一,它基于文本中的词频、逆文档频率或其它统计度量来评估词语的重要性。

常见的统计方法包括TF-IDF(Term Frequency-Inverse Document Frequency)和TextRank算法。

TF-IDF算法通过计算词频和逆文档频率的乘积来确定词语的重要性。

它假设文本中出现频率高、在其他文本中出现较少的词语往往是关键词。

然而,TF-IDF算法无法考虑到词语之间的语义关系,容易受到停用词的干扰,因此在一些特定的场景下效果有限。

TextRank算法是一种基于图模型的关键词提取算法,它将文本中的词语作为节点构建图,利用节点之间的边权重来表示词语之间的相关性。

TextRank算法类似于PageRank算法,在图中进行迭代计算,最终得到词语的重要性分数。

相比于TF-IDF算法,TextRank算法能够更好地捕捉到词语之间的语义关系,但也存在着计算复杂度高、依赖于预定义窗口大小等问题。

1.2 语言模型方法语言模型方法利用文本的语言模型推断词语的概率分布,用来衡量词语的重要性。

其中,基于n-gram模型的方法是常见的语言模型方法之一。

基于n-gram模型的方法通过计算词语序列的概率分布来确定关键词。

它将文本中的词语序列作为统计模型的输入,利用上下文的语言信息来推断词语的重要性。

然而,基于n-gram模型的方法可能无法准确捕捉到长距离依赖关系和上下文信息,导致提取的关键词精度有限。

二、深度学习方法2.1 神经网络方法近年来,深度学习方法在关键词提取任务中取得了显著的进展。

文本分类中的特征提取和分类算法综述

文本分类中的特征提取和分类算法综述

文本分类中的特征提取和分类算法综述特征提取和分类算法是文本分类中非常重要的步骤,对于智能化应用和信息检索具有重要的意义。

本文将综述文本分类中常用的特征提取方法和分类算法,并对其优缺点进行分析和比较。

一、特征提取方法特征提取是将文本转化为计算机可识别的特征向量的过程。

下面介绍几种常用的特征提取方法:1. 词袋模型(Bag of Words):词袋模型将文本转换为一个包含词袋(词汇表)中所有单词的向量。

对于每个文档,词袋模型统计每个词在文档中的词频或词重。

这种方法简单有效,但忽略了文本中的语法和顺序信息。

2. N-gram模型:N-gram模型将文本分成N个连续的词组,统计每个词组的出现频率。

该方法考虑了词组的局部关系,能够捕捉文本中的一定的语序信息。

3.TF-IDF:TF-IDF(Term Frequency-Inverse Document Frequency)是一种基于词频和逆文档频率的特征提取方法。

它衡量了一个词在文档中的重要性,高频率出现且在整个语料库中稀有的词被认为具有较高的区分能力。

4.主题模型:主题模型通过对文档进行主题聚类,将文本转化为对应主题的概率分布向量。

主题模型可以提取文本中的语义信息,但参数估计较为困难。

5. Word2Vec:Word2Vec是一种基于神经网络的词嵌入模型,通过学习词的分布式表示。

Word2Vec可以捕捉词之间的语义相似性,提取更加丰富的特征。

二、分类算法分类算法是根据提取的特征向量对文本进行分类。

常用的分类算法包括:1.朴素贝叶斯分类器:朴素贝叶斯分类器基于贝叶斯定理和特征条件独立假设,计算每个类别的概率,并选择概率最大的类别作为分类结果。

朴素贝叶斯分类器简单高效,对于大规模数据集适用。

2.支持向量机:支持向量机通过寻找一个超平面,将不同类别的样本点分开。

它可以处理高维数据,具有较好的泛化性能。

3.决策树:决策树根据特征之间的关系构建一棵树型结构,通过比较特征值进行分类。

一种基于互信息的N_gram中文分词方法[发明专利]

一种基于互信息的N_gram中文分词方法[发明专利]

专利名称:一种基于互信息的N_gram中文分词方法专利类型:发明专利
发明人:陈宇,王亚威
申请号:CN202011458944.5
申请日:20201211
公开号:CN112560446A
公开日:
20210326
专利内容由知识产权出版社提供
摘要:本发明涉及一种基于互信息的N_gram中文分词方法,其中基于互信息的N_gram中文分词方法包括:首先根据训练数据集仅使用词长度小于6的词建立词典,获得N_gram语言模型的统计信息以及得到字与字之间的内部连接度和外部离散度,计算字与字之间的分合比;然后使用双向最大匹配算法根据词典和N_gram语言模型的统计信息进行中文分词;最后为根据字与字之间的内部连接度、外部离散度以及分合比对分词结果进行二次处理,得到最终的分词结果。

该方法通过引入互信息知识有效的提升N_gram算法的分词速度,并且提高了N_gram算法的分词准确率,突破了N_gram 算法无法处理未登录词的限制。

申请人:东北林业大学
地址:150040 黑龙江省哈尔滨市香坊区和兴路26号
国籍:CN
更多信息请下载全文后查看。

基于文本的聚类算法研究毕业论文

基于文本的聚类算法研究毕业论文

基于文本的聚类算法研究毕业论文随着信息时代的到来,海量的文本数据给人们的信息处理带来了很大的困扰。

聚类是文本数据的一种重要处理方法,它可以将相似的文本数据分为同一类,方便人们对数据进行分析和理解。

因此,基于文本的聚类算法成为了当前研究的热点之一本文旨在研究基于文本数据的聚类算法,并对其进行总结和评价。

首先,我们将介绍聚类算法的基本概念和流程,以及在文本数据中的应用。

然后,我们将详细讨论几种常见的基于文本的聚类算法,并对其进行比较和分析。

最后,我们将结合实例,探讨聚类算法在文本数据中的应用场景和效果。

聚类是一种无监督学习方法,它将具有相似特征的样本数据聚集到一起形成一个簇。

在基于文本的聚类中,我们通过将文本数据转化为特征向量,并根据特征向量之间的相似度度量来进行聚类。

常用的特征提取方法包括词袋模型、TF-IDF等。

在基于文本的聚类算法中,最常用的方法是K-means算法。

它是一种迭代的、划分型的聚类算法,通过不断迭代更新簇中心的位置,直到收敛为止。

K-means算法具有计算复杂度低、收敛速度快等优点,但对初始聚类中心的选择敏感,容易陷入局部最优。

另一个常用的聚类算法是层次聚类算法。

它将数据集从一个簇开始,通过不断合并最相似的两个簇,构建出一个层次化的聚类结构。

层次聚类算法具有聚类结果可视化、不受初始聚类中心选择影响等优点,但计算复杂度较高,对大规模数据集不适用。

此外,基于密度的聚类算法也常被用于文本聚类。

例如,DBSCAN算法通过定义核心对象和直接密度可达的对象来划分簇。

相比于K-means和层次聚类,DBSCAN算法能够发现任意形状的聚类簇,并对噪声数据有较好的鲁棒性。

综上所述,基于文本的聚类算法是一种重要的数据处理方法,能够将相似的文本数据分为同一类,方便人们进行分析和理解。

本文介绍了聚类算法的基本概念和流程,并重点讨论了几种常见的基于文本的聚类算法。

不同的聚类算法在具体应用中有着不同的优势和适用范围,在选择算法时需要根据实际情况进行考虑。

基于聚类算法的文本分类研究

基于聚类算法的文本分类研究

基于聚类算法的文本分类研究文本分类是自然语言处理领域的重要研究方向之一。

它的基本任务是将给定的文本分成不同的类别,这对信息检索、舆情分析、垃圾邮件过滤等应用具有重要意义。

随着社交媒体和互联网技术的不断发展,海量文本数据也不断涌现,如何高效、准确地对这些文本进行分类成为了研究的热点之一。

本文主要探讨基于聚类算法的文本分类研究。

聚类算法是一种常见的无监督学习算法,在数据挖掘、模式识别等领域得到广泛应用。

在文本分类中,聚类算法可以通过自动对数据集进行分组,找到数据点间的相似性,从而实现文本的自动分类。

一、文本分类的基本方法文本分类的基本方法通常分为两种:有监督学习和无监督学习。

有监督学习指的是,需要预先定义好分类的标签和特征,在已知数据集的情况下,通过机器学习算法让机器学习分类的规则,从而对未知数据进行预测。

常见的有监督学习算法有朴素贝叶斯、支持向量机、决策树等。

无监督学习则不需要预先定义标签和特征,它可以自动从未分类的数据中发现类别以及类间关系。

常见的无监督学习算法包括聚类、主题模型、关联规则挖掘等。

在文本分类中,有监督学习需要人工定义分类标签和特征,需要大量的标注数据和专业知识,难度较大。

而无监督学习可以自动、高效地对文本进行分类,不需要先验标签,更加适合大规模、多样化的文本分类任务。

因此,聚类算法也成为了文本分类中常用的无监督算法之一。

二、聚类算法的基本原理聚类算法是一种经典的无监督学习算法,它的基本思想是将数据分成有意义的组或簇。

在文本分类中,聚类算法可以自动发现文本数据集中的不同主题或类别,从而实现文本的自动分类。

聚类算法包括层次聚类和划分聚类两种类型。

层次聚类是一种自底向上的聚合方法,常见的算法有凝聚层次聚类(AGNES)和分裂层次聚类(DIANA)等。

划分聚类是一种自顶向下的划分方法,常见的算法有K-Means、DBSCAN、谱聚类等。

在聚类算法中,距离度量是关键的因素之一。

距离度量常用的有欧式距离、余弦相似度、曼哈顿距离等。

文本特征提取技术03

文本特征提取技术03

文本特征提取技术03文本特征提取技术031. 词袋模型(Bag of Words):词袋模型是文本特征提取中最简单直观的方法之一、它将文本表示为一个由单词组成的集合,忽略了单词出现的顺序和语法关系。

词袋模型首先需要对文本进行分词,然后统计每个单词在文本中出现的次数或频率。

这样就可以得到一个向量,其中每个维度代表一个单词,数值代表该单词在文本中的出现次数或频率。

2.TF-IDF:TF-IDF(Term Frequency-Inverse Document Frequency)是一种常用的文本特征提取方法。

TF-IDF值反映了一个单词在文本中的重要程度。

它的计算公式为:TF-IDF = TF * IDF,其中TF表示词频(一些单词在文本中出现的次数),IDF表示逆文档频率(文本中包含该单词的文档数的倒数)。

TF-IDF将每个单词表示为一个向量,向量的每个维度代表一个单词,数值代表该单词的TF-IDF值。

3. Word2Vec:Word2Vec是一个用于将单词表示为词向量的技术。

它通过训练神经网络模型来获取单词的分布式表示。

Word2Vec可以将单词的语义信息编码为向量,通过计算向量之间的相似度来衡量单词之间的关联性。

Word2Vec生成的词向量可以作为文本的特征输入到其他机器学习模型中进行分类、聚类等任务。

4. N-gram模型:N-gram模型是一种基于连续n个单词的文本特征提取方法。

N-gram模型通过提取文本中的连续n个单词来捕捉单词之间的上下文关系。

常见的N-gram模型有unigram(单个单词), bigram(连续两个单词)和trigram(连续三个单词)。

通过计算不同N-gram的频率或出现概率,可以得到一个表示文本的向量。

5. 主题模型(Topic Model):主题模型是一种用于提取文本的潜在语义结构的方法。

它假设每篇文档由多个主题组成,每个主题又由多个单词组成。

主题模型通过学习每个单词在每个主题中的概率分布,以及每篇文档由每个主题组成的概率分布,来得到对文本的表示。

一种基于n—gram短语的文本聚类方法研究

一种基于n—gram短语的文本聚类方法研究
形 簇 内
布 奥运 ”“ 运 期 间”“ 间 外 地 ”“ 地 进 ”“ 、奥 、期 、外 、进 京 ” “ 货 车 ” “ 车 绕行 ” “ 行 方 案 ” 、京 、货 、绕 。
22 算 法 步骤 .
( ) 档 分 词 后 去 掉 语 义小 的停 用 词 . 句 子 范 围 1文 在 内提 取 n ga 短 语 ( 如 n 2 , —r m 例 = )由于 只包 含 一 个 文档 的

【m d, )0( s ( = 其他) i
计 算 d与 d 相 关 度 , s d,,= 时 , 容 d , 当 i 1 收 m( d )
个短语 可能是任意 的长度 .但该序 列不应穿 过
当s (i = 时, i d d 0 拒绝 d m , 得到d最相关的文档 d
本 文 所 用 的 n g m 短 语 . 指 当前 词 语 与 后 继 —r a 是 n 1 词 语 所 组 成 的短 语 。例 如 “ 安 部公 布 奥运 期 间 一 个 公 外 地 进 京 货 车 绕 行 方 案 ”经 过 中 文 分 词 . 到 结 果 “ . 得 公 安 部 公 布 奥 运 期 间 外 地 进 京 货 车 绕 行 方 案 ” 当 . n 2时 ,可 得 到 如 下 2 ga 短 语 :公 安 部 公 布 ” “ = -r m “ 、公
处理速度 , 能够保 证许多应用 中的时间复杂性要求 : 另

方面不依赖于某个特定领域 。 但是 V M却丢失 了词 S
之 间 的 邻 近 以及 顺 序关 系 等 重 要 信 息 .失 去 原 有 文 档
的语义 , 自然就 降低 了聚类结果 的准确 率【 由于词集 ” 。 的这种缺点 , 了能得到更好 的聚类结果 . 为 一个 较好 的

一种新型英语基本名词短语识别方法——基于边界概率与N_Gram词性串

一种新型英语基本名词短语识别方法——基于边界概率与N_Gram词性串
别 出 当前 “ 假 拟 中心 词 ” 所在基本名 词短语 的左 、 右 边 界 。 实验 证 明 , 该方 法的识别 准确率 为 9 7 . 1 3 、 召 回率为 9 8 .
7 5 , FB= 1为 9 7 . 9 3 。
关键词 : 英语基本名词短语识别 ; 边界概 率; N — Gr a m词性 串规 则; 假 拟 中心词
规则列表数据稀疏性问题 。
接影 响 这些 自然 语 言处 理 活 动 的效 果 。 因此 , 应 力 求 提 高 英语 基 本名 词短 语 识 别 准 确 率 和 召 回率 、 降 低 系 统 的 时 空 于 f : 销, 否 则 将 会 对 其 它相 关 工 作产 生 负 面影 响[ 。 自2 0世 纪 8 0年 代 以来 , 国 内外 很 多 研 究 者 对 英 语 基 本 名 词 短 语 识 别 进 行 了相 关研 究 并 提 出 了一 些 识 别 方 法 。 这些方法的共同的特点是 : 以句子 为单位 , 按 照 从 句 子 头
( 3 ) 边 界 统计 与词 性 串规 则 校 正 相 结 合 的 方 法 。存
综 合 了边 界 统 计 和 词 性 串 规 则优 点 的基 础 上 , 把 基 本 名 词
短语识别分为主次分明的两个部分 , 边 界 统 计 作 为主 要 部
ቤተ መጻሕፍቲ ባይዱ
分 能 够 识 别 出大 部 分 基 本 名 词 , 词性 串规 则作 为辅 助 手 段 在 对 前 者 识 别 出 的基 本 名 词 进 行 核 对 和 校 正 的 同 时 还 对
为 当时 报 道 的最 好 结 果 。但 该 方 仍 存 在 两 个 方 面 的不 足 :

题 内 容分 析 等其 它 众 多 自然 语 言 处 理 的一 个 组 成 部 分 , 还
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Learning to Cluster Search Results. The 27th Annual Inter -
为了考查算法的适应性,选取了包含军事、旅游、 教育、健康和体育五个类别的四个中文文本集,分别含 有 50 个、100 个、300 个、500 个文本,进行实验。 在实验 中, 为了更好地验证本方法的聚类结果质量和时间性 能,本文选取了基于划分方法中的 K-means 算法作为对 比方法,并对 K-means 算法在初始簇中心的选取和噪声 点的处理做了一定的改进[6]。 实验结果如表 1、2:
VSM 采用简洁的特征向量来表示文档 ,这样做有 两个好处: 一方面这种在词的层次上的特征提取方式 使得模型得以大大简化, 对大量文本的集合有较快的 处理速度,能够保证许多应用中的时间复杂性要求;另 一方面不依赖于某个特定领域。 但是 VSM 却丢失了词 之间的邻近以及顺序关系等重要信息, 失去原有文档 的语义,自然就降低了聚类结果的准确率[1]。 由于词集 的这种缺点,为了能得到更好的聚类结果,一个较好的 方法是使用短语的文档表示模型。 1.2 传统聚类算法
不需要设定簇数目和初始簇中心参数,可减少人为参与 因素的影响, 根据文档集自身信息形成最相似的各个 簇 。 虽 然 在 准 确 率 方 面 n-gram 短 语 方 法 要 优 于 Kmeans 算法,但是在空间复杂度方面,它要比 k-means 算 法需要更多的存储空间。 在 n-gram 短语的提取过程中, 短语中含有重复的词语,当 n=2 时,是 K-means 的 2 倍; 当 n=3 时,是 K-means 的 3 倍,即与 n 成线性关系。
研究与开发
键 词 集 的 向 量 空 间 模 型 (VSM),此 模 型 是 一 种 统 计 的 文本表示模型, 它没有考虑文档上下文之间的语义关 系,分类精度不高。
对于平面划分法来说其特点是聚类速度较快,比 较适合对 Web 文档集聚类,也适合联机聚类。 但也 有 缺点,例如 K-means 算法要事先确定 k 的取值,且初始 簇中心选取的好坏对聚类结果有较大的影响, 只有当 选取的簇是关于使用的相似度近似于球形时, 它的效 果才是最优的。 但实际情况中,文档很可能不是落在球 形簇内。
(2) 短 语 能 够 简 明 准 确 地 描 述 各 个 类 , 从 而 提 高 聚 类的可读性。
一个短语可能是任意的长度, 但该序列不应穿过 短语边界。 短语边界是指文本解析器识别特殊语法记 号时插入到短语间的, 这些记号可以是标点符号标记 (例如句号、逗号等)或者如 HTML 标签,文本的开头和 结尾也被认为是短语边界[3]。 不允许短语穿过短语边界 的原因是短语边界表示论题的转移。
综合比较 n-gram 短语方法和 K-means 算法可得 表 3 结果。
表 3 n-gram 短语方法与 K-means 算法综合性能对比
4 结语
本文提出了基于 n-gram 短语的文本聚类方法,该 方法是先利用 n-gram 短语构建短语文档相关模型,并 将其转换成相关文档模型, 最后在相关文档模型基础 上进行文档聚类的一种方法。 通过实验,结果证明此方 法是一种能获得较好聚类结果的有效方法。
趤趭 现代计算机 2011.07
研究与开发
新的最相关文档集,并移去 djl 最相关文档集,最后就得 到文档聚类结果。 例如:
{文档 1 文档 2} {文档 3 文档 4 文档 5}
3 实验与分析 3.1 实 验
本 文 使用 Sogou 实验室的文本分类语料库中的文 本语料[5]。 Sogou 实验室的文本分类语料来源于 Sohu 新 闻网站保存的大量经过手工编辑整理与分类的新闻语 料和对应的分类信息。 其分类体系包括几十个分类节 点,网页规模约为十万篇文档,为各种从事中文文本分 类工作的研究者提供一个标准的较大规模的测试平台。
本 文 所 用 的 n-gram 短 语[4],是 指 当 前 词 语 与 后 继 n-1 个词语所组成的短语。 例如“公安部公布奥运期间 外地进京货车绕行方案”,经过中文分词,得到结果“公 安部 公布 奥运 期间 外地 进 京 货车 绕行 方案”,当 n=2 时, 可得到如下 2-gram 短语:“公安部 公布”、“公
参考文献
[1]马晖男, 吴江宁, 潘东华. 一种修正的向量空 间 模 型在 信 息
检索中的应用. 哈尔滨工业大学学报,2008, 40(4):666~669
[2]Oren Zamir, Oren Etzioni. Web Document Clustering: A
Feasibility Demonstration. In Proc. ACM Sigir'98, 1998:46~54
对词频归一化的词频,其计算方法主要运用 TF*IDF 公
式:
W(t,d)=
tf(t,d)×log2(N / ni+0.01)
(1)
姨Σ[tf(t,d)×log2(N / ni+0.01)]2 i∈d
VSM 模型:
d1 w11 … w1m d2 w21 … w2m
… … … …
dn wn1 … wnm
文档 1|文档 1 文档 2 文档 3
文档 2|文档 1 文档 2
文档 3|文档 1 文档 3 文档 4 文档 5
文档 4|文档 3 文档 4 文档 5
文档 5|文档 3 文档 4 文档 5
(3)利用公式:
∩sim(di,djk )=1 (|di∩djk|/djk>α,α=0.5)
(2)
sim(di,djk )=0 (其他)
表 1 准确率
表 2 时间复杂度(单位:毫秒)
3.2 实验分析 与 传 统 聚 类 算 法 K-means 相 比 较 进 行 说 明 。 K-
means 算法是以 VSM 进行聚类, 每个文档需要与 k 个 簇中心进行比较,达到性能函数 E 稳定的 t 次运算,时 间复杂度 O(n)=nkt。 n-gram 短语方法是以相关文档模 型进行聚类, 每个文档需要与相关文档集中的 h 个相 关文档进行比较, 在达到最佳聚类结果要进行 t 次整 合运算,时间复杂度 O(n)=nht。此算法还有一个优点是
布 奥运”、“奥运 期间”、“期间 外地”、“外地 进”、“进
京”、“京 货车”、“货车 绕行”、“绕行 方案”。
2.2 算法步骤
(1)文 档 分 词 后 去 掉 语 义 小 的 停 用 词 , 在 句 子 范 围
内提取 n-gram 短语(例如 n=2),由于只包含一个文档的
短语(称为文档独有短语)和包含三分之一以上总文档
文档 3:{文档 3 文档 4 文档 5}
文档 4:{文档 3 文档 4 文档 5}
文档 5:{文档 3 文档 4 文档 5}
(4)利用公式:
∩sim(di,djl )=1 (|di∩djl|/djl>α 或|di∩djl|/di>α,α=0.5) (3) sim(di,djl )=0 (其他)
当 sim(di,djl )=1 时 ,把 di 和 djl 最 相 关 文 档 集 合 成
北京 奥运|文档 1 文档 2
全国 关注|文档 1 文档 3
汶川 地震|文档 3 文档 4
震中 汶川|文档 3 文档 4 文档 5
(2)把 n-gram 短语文档相关模型转换成相关文档
模型 doc-relation_docs={di|dj1 ,dj2 ,… ,djk },其 中 djk 是 与 di 相关的文档, 这一步是利用短语取得的短语与多个 文档关系转变成含相同信息的相关文档关系。 例如:
研究与开发
一种基于 n-gram 短语的文本聚类方法研究
孙桂煌 1,2
(1. 福州海峡职业技术学院, 福州 350014; 2. 福建工程学院国脉信息院, 福州 350014)
摘 要: 由于 文 本自 身 特 点使 得 传 统的 文 档 表示 模 型 VSM 不能 很 好 地反 映 文 本 信 息 ,也 让 传 统 数 据挖掘聚类算法得不到很好的性能表现。 针对传统文本聚类方法中文本表示模型 VSM 和 聚类算法的 不 足 ,提出 一 种 基于 n-gram 短 语 的文 本 聚 类方 法 ,该 方法 利 用 n-gram 短语 构 建短语文档相关模型,将其转换成相关文档模型,在相关文档模型基础上进行文档聚类。实 验结果显示,此方法是一种能获得较好聚类结果的有效方法。
1 传统聚类算法
1.1 向量空间模型 VSM 在 VSM 中,文档空间被看作是由一组正交特征向
量所形成的向量空间, 每个文档 d 被看作向量空间中 的一个向量:
V(d)={(t1,w1) ,(t2,w2) ,… ,(tn,wn) } 或 V(d)={w1,w2,…,wn}
其中 ti 为特征项,wi 为 ti 在文档 d 中的权值。 wi 一 般 定 义 为 在 ti 文 档 d 中 出 现 频 率 tfji 的 函 数 , 即 wi= ψ(tfji)。 词频分为绝对词频和相对词频,绝对词频是使 用词在文本中出现的频率表示文本, 相对词频是将绝
2.1 n-gram 短语
从自然语言处理的角度来看, 语言单位的层次越 高,那么它蕴涵的含义也就越丰富,所需要的语言模型 也就越复杂。 比词更高一级的语言单位是短语,也称为 词组,是指一个具有一个或者更多词的有序序列[2]。 以 短语作为文档的特征能够给文档聚类带来两个重要的 好处:
(1) 短 语 能 够 体 现 文 档 中 更 多 的 信 息 , 从 而 提 高 聚 类的合理性;
对于层次凝聚法, 其特点是能够生成层次化的嵌 套簇,准确度较高。 但是在每次合并时,需要全局地比 较簇间的相似度,并选择出最佳的两个簇,因此聚类速 度较慢, 不适合大量文档的集合, 并且不能产生相交 簇。 这样对于聚类速度有较高要求且待聚类数据量较 大等应用领域则不适宜采用这种方法。
相关文档
最新文档