有关中文文本相似度研究的文献综述

合集下载

文本相似性检索调研概况

文本相似性检索调研概况

文本相似性检索调研一、相似性检索调研从查看的资料来看,文本相似性检索大致有几个阶段,1)分词等文档处理阶段2)特征提取3)相似度计算。

1.P2P环境下的文本检索综述本文属于综述,没有具体的操作方法。

主要是加入一层语义覆盖网以及如何构建。

一些研究者提出了语义覆盖网(Semantic Overlay Networks SONS)的概念,即在P2P网络之上构建了一个语义层,也就是预先定义好一个层次结构的主题分类,然后根据结点包含内容与主题的相关程度将结点聚类,收到查询消息后,检索主题找到相应的结点。

基于SONS的研究已经有很多,方法1定义一个树状的主题层次结构和一些主结点和从结点,主结点的信息映射到主题层次结构中并维护从结点的连接信息;方法2将网络中的结点划分成不同的区域(Zone,在域内根据文档的相似度将结点聚类,并选出一个中心结点作为区域的代表,然后将不同的区域合并形成一个语义覆盖网;方法3运用潜在语义索引(Latent Semantic Indexing, LSI方法将文档映射到一个语义逻辑层,然后通过支持向量机(Support Vector Machine, SVM)模型进行训练,将结点划分到不同的语义覆盖网内;方法4利用结点的请求和应答的历史记录构建语义覆盖网,经常为某一查询提供解答的结点被认为具有相似的内容,将被划为同一类别;(我们有没有可能做)方法5通过对邻居结点的语义相似度、信任程度、重合度和连接频率等指标的统计进行邻居结点的排序,排序靠前的结点划为同一类别,构建语义覆盖网。

2.基于HNC句子分析这篇主要是句子分析,HNC是一种新的语言表示方法。

HNC (hierarchical network of concepts,概念层次网络)理论是一个关于自然语言理解处理的理论体系,以概念联想脉络为主线,由中国科学院声学研究生黄曾阳先生创立。

基于HNC语义块的句子相似度计算(本文采用)——把句子的类型划分为作用句、过程句、转移句、效应句、关系句、状态句和判断句七大句类,每个句子是由四种主语义块和七种辅语义块构成的,根据HNC理论进行句子的表示和相似度计算。

文本相似度算法研究研究背景与意义

文本相似度算法研究研究背景与意义

文本相似度算法研究研究背景与意义一、研究背景随着信息技术的快速发展和互联网的普及,大量的文本数据被产生和传播,如何高效地进行文本的管理、检索和分析已经成为一个重要的研究问题。

文本相似度算法是解决这一问题的基础和关键技术之一、文本相似度算法是通过计算两个文本之间的相似程度来评估它们之间的相关性和相似性,可以广泛应用于文本分类、信息检索、自然语言处理等领域。

在实际应用中,常常需要根据文本的相似度进行文本的聚类和分类。

例如,在信息检索中,用户输入一个关键词,系统需要根据用户的查询条件从数据库中出与其相关的文档;在自然语言处理中,需要根据文本的相似度进行语义匹配和语义推理。

因此,提高文本相似度算法的准确性和效率对于数据管理、检索和分析具有重要意义。

二、研究意义1.提高信息检索和文本分类的效率:文本相似度算法可以帮助快速准确地出与用户查询条件相关的文本,提高信息检索和文本分类的效率。

2.促进自然语言处理的发展:文本相似度算法对于自然语言处理具有重要意义,可以帮助机器理解和处理文本信息,实现语义匹配和语义推理。

3.改善用户体验:利用文本相似度算法,可以根据用户的兴趣和需求,推荐相关的文本,提升用户体验。

4.辅助决策分析:在大数据时代,通过对文本数据的分析可以揭示出一些隐藏在数据背后的规律和模式,帮助决策者做出更加准确和科学的决策。

5.推动学术研究的进步:文本相似度算法是自然语言处理和信息检索等领域的核心问题之一,对于学术研究具有重要推动作用,可以帮助学者深入研究文本的语义和结构特征。

三、研究内容和方法1. 文本特征表示:文本特征表示是将文本信息转化为机器可以处理的数值形式的过程。

常用的文本特征表示方法包括向量空间模型(Vector Space Model,VSM)、词袋模型(Bag of Words,BoW)、词嵌入模型(Word Embedding)等。

这些方法可以将文本转化为向量形式,方便后续的相似度计算。

文本相似性算法范文

文本相似性算法范文

文本相似性算法范文文本相似性算法也被称为文本匹配算法或文本比较算法,是一种用于判断两段文本之间相似程度的算法。

它在信息检索、自然语言处理和文本挖掘等领域有着广泛的应用。

本文将介绍几种常见的文本相似性算法,并比较它们的优缺点。

一、余弦相似性算法余弦相似性算法是一种常见的文本相似性度量方法,它可以用于衡量两个向量之间的夹角,进而判断它们的相似程度。

在文本相似性匹配中,将两段文本分别表示为向量,然后计算它们之间的余弦相似度,值越接近1表示相似度越高。

优点:简单、高效,在大规模文本数据上具有较好的性能。

缺点:不考虑词语的重要性差异,不能很好地刻画文本的语义信息。

优点:能够捕捉到文本之间的语义差异,适用于衡量两段文本之间的相似程度。

缺点:时间复杂度较高,在大规模文本数据上计算效率低下。

三、词袋模型(Bag-of-Words)词袋模型将文本表示为一个包含所有词语的集合,通过计算文本中每个词语的权重来表示文本的特征。

可以使用词频(Term Frequency, TF)或者词频-逆文档频率(Term Frequency-Inverse Document Frequency, TF-IDF)作为词语的权重。

优点:简单、易于实现,在一定程度上可以反映文本的主题信息。

缺点:忽略词语的顺序,不能捕捉到文本之间的时序关系。

四、Word2Vec算法Word2Vec算法是一种基于神经网络的词向量表示算法,它可以将词语表示为一个连续向量,可以反映词语之间的语义关系。

通过计算两个词语向量之间的相似度,可以判断它们之间的相似程度。

优点:能够在一定程度上理解文本的语义,可以捕捉到词语之间的关联性。

缺点:计算复杂度较高,需要大规模的训练数据。

文本相似度算法范文

文本相似度算法范文

文本相似度算法范文
一、余弦相似度
余弦相似度是一种常用的文本相似度度量方法,它衡量两个向量之间
的夹角的余弦值。

具体步骤如下:
1.首先对两段文本进行分词,提取出各个词汇,形成词袋。

2.统计每个词汇在两段文本中的词频,并将其表示为两个向量。

3.分别计算两个向量的模长。

4.通过计算两个向量的内积,得到相似度的分子部分。

5.将步骤4的结果除以两个向量模长的乘积,得到余弦相似度。

余弦相似度的取值范围在0到1之间,值越接近1表示两段文本越相似,值越接近0表示两段文本越不相似。

1.创建一个二维矩阵,行数为第一个字符串的长度加1,列数为第二
个字符串的长度加1
2.初始化矩阵的第一行和第一列,分别为0到字符串对应位置的索引。

三、应用场景
1.文本分类:通过比较待分类文本与已标注文本之间的相似度,为待
分类文本确定类别。

2.信息检索:在引擎中,将用户查询与文档之间的相似度进行匹配,
返回相关的结果。

3.问答系统:通过计算用户提问与已知问题或答案之间的相似度,找
到最匹配的问题或答案。

4.文本聚类:将相似的文本聚合到一起,便于后续的文本分析和处理。

总结:。

《本体映射中概念相似度计算研究》范文

《本体映射中概念相似度计算研究》范文

《本体映射中概念相似度计算研究》篇一一、引言随着信息技术的飞速发展,大数据和知识图谱的构建与应用日益受到关注。

本体映射作为知识图谱构建过程中的关键技术之一,其重要性不言而喻。

在映射过程中,概念相似度计算是本体映射的核心问题之一。

本文旨在研究本体映射中概念相似度计算的相关方法,为知识图谱的构建提供理论支持和技术手段。

二、概念相似度计算的重要性概念相似度计算是本体映射的基础,其目的是衡量不同本体中概念之间的语义相似性。

在知识图谱构建过程中,概念相似度计算能够帮助我们准确地找到不同本体之间的关联,实现知识的整合与共享。

此外,概念相似度计算还可以应用于自然语言处理、机器翻译、信息检索等领域,具有重要的理论和实践意义。

三、概念相似度计算的方法目前,概念相似度计算的方法主要包括基于词汇的方法、基于语义的方法和混合方法。

1. 基于词汇的方法:该方法主要依据概念的名称或描述信息进行相似度计算。

常用的方法包括基于字符串的方法、基于共现关系的方法等。

基于词汇的方法简单易行,但往往忽略了概念的语义信息,导致计算结果不够准确。

2. 基于语义的方法:该方法利用语义模型和知识库来计算概念的相似度。

常见的语义模型包括语义网络、语义角色标注等。

基于语义的方法能够更好地捕捉概念的语义信息,提高相似度计算的准确性。

然而,由于知识库的复杂性和多样性,该方法存在一定的误差和不确定性。

3. 混合方法:为了结合基于词汇和基于语义方法的优点,研究者们提出了混合方法。

该方法综合利用词汇信息和语义信息来计算概念的相似度,能够在一定程度上提高计算的准确性。

混合方法通常需要结合具体的应用场景和需求进行设计。

四、本研究的内容与方法本研究旨在提出一种基于多源信息的本体映射中概念相似度计算方法。

该方法综合利用词汇信息、结构信息和语义信息来计算概念的相似度。

具体方法包括:1. 词汇信息提取:从概念名称和描述中提取关键词和短语,形成词汇特征向量。

2. 结构信息分析:利用本体结构信息,如类别关系、层次关系等,形成结构特征向量。

汉语句子相似度计算方法比对之研究.kdh

汉语句子相似度计算方法比对之研究.kdh

2007年第10期福建电脑汉语句子相似度计算方法比对之研究赵巾帼12,徐德智1,罗庆云2(1.中南大学信息学院湖南长沙4100002.湖南工学院计算机科学系湖南衡阳421008)【摘要】:相似句子检索,在自然语言处理领域具有非常广泛的应用背景,如信息过滤技术中的句子模糊匹配,基于实例的机器翻译的原语言检索,自动问答系统中常问题集的检索以及问题与答案的匹配,基于双语语料库的英文辅助写作等。

本文在介绍了汉语句子相似度计算的有关概念之后,对几种典型的汉语句子相似度的计算方法进行了介绍,并分析了各方法的优缺点。

【关键字】:句子相似度信息处理在中文信息处理中,句子相似度计算是一项基础而核心的研究课题,长期以来一直是人们研究的一个热点和难点。

句子相似度计算在实际中有着广泛的应用,它的研究状况直接决定着其他一些相关领域的研究进展,例如,在基于实例的机器翻译、信息检索、信息过滤、自动问答等方面,相似度计算都是一个非常关键的问题。

随着这些领域的迅速发展,句子相似度计算也诞生了许多方法。

1.句子相似度的定义、计算方法的分类及衡量标准定义:句子相似度指两个句子在语义上的匹配符合程度,值为[0,1]之间的实数,值越大表明两个句子越相似。

当取值为1时,表明两个句子在语义上完全相同;值越小则表明两个句子相似度越低,当取值为0时,表明两个句子在语义上完全不同。

计算方法:在句子相似度的算法中,从具体的表现形式来说有多种多样,不同的算法适应的应用领域也不同。

但归结起来可概括为三类方法:基于词特征的句子相似度计算,基于词义特征的句子相似度计算以及基于句法分析特征的句子相似度计算。

不同方法很大程度上依赖于汉语句子的不同表示形式,具体的算法有:基于向量空间的方法,使用语义词典的方法,使用语义依存的方法,基于关键词语义的方法等等。

衡量标准:从不同领域出发,看待句子相似度角度也不同,导致度量的标准不同。

目前的存在的问题是,没有找到同一的度量标准;也可能不存在这样的标准,具体的度量准则与具体的应用有关。

文档相似度综合计算研究.kdh

文档相似度综合计算研究.kdh

1前言计算对象之间的相似度是许多应用的基础计算。

如信息检索、推荐系统中协同过滤和Web服务中的服务发现等。

在以往的关于对象相似性的方法研究中,一般是从某个角度来考虑对象之间的相似性,如基于对象内容的特征、结构化描述、拓扑结构关系等。

但这些方法都有其局限性。

如基于文档特征的方法忽略了潜在的语义信息,而过分依赖于对象之间特征交集的大小,而且要求特征元素之间的关系必须是正交的,不存在任何的语义关系;基于结构化的层次结构可能因为分类较粗导致计算数值太小,并且无法捕捉对象之间的非层次关系(比如文档之间引用关系),基于引用图的方法从引文分析的角度来考虑文档之间的语义关系,但往往由于它的动态变化,导致数值不稳定。

上述计算方法往往是基于不同的视角,本文试图综合不同的计算视角,给出综合计算公式,并通过原型系统,验证所提方法的有效性。

2相似度方法及其相关研究传统的计算对象之间的相关度的常用模型有向量空间模型(VectorSpaceModel)、集合运算模型(SetTheoreticModel)等[11]。

2.1基于向量空间模型的相似度计算方法在最常用的向量空间模型(VSM)中,文档dj表示为向量空间中的一点((t1,wj1),(t2,wj2),…,(tn,wjn)),其中wji为ti在dj中的权重,计算wji使用tf×idf算法[11]。

文档dj和dk之间相似度Content_sim(dj,dk)通过它们之间的夹角求得,见公式(1),这种相似度方法具有强相似性特性[1],但这种方法要求特征元素之间的关系必须是正交的,不存在任何的语义关系,事实上,这是不可能的。

Content_sim(dj,dk)=dj・dk|dj|×|dk|=!ni=1wji×wki!ni=1w2ji"×!ni=1w2ki"(1)例1计算文档d1、d6之间相似性。

根据公式(1)计算文档d1、d6之间的内容相似性:Content_sim(d1,d6)=0.352.2基于集合模型的相似度计算方法在许多应用领域,一种最简单的方法是将对象看作一个元素的集合。

文本语义相似度计算与度量方法

文本语义相似度计算与度量方法

文本语义相似度计算与度量方法摘要:文本语义相似度计算是自然语言处理领域的重要研究方向之一。

本文综述了当前常用的文本语义相似度计算方法,并对其优缺点进行了分析。

首先介绍了基于词向量的方法,包括词袋模型、Word2Vec模型、GloVe模型等。

然后介绍了基于句子向量的方法,包括Skip-Thoughts模型、InferSent模型等。

接着介绍了基于深度学习的方法,包括循环神经网络(RNN)、长短时记忆网络(LSTM)、卷积神经网络(CNN)等。

最后,对当前研究中存在的问题进行了总结,并展望了未来发展方向。

1. 引言随着互联网和大数据技术的发展,海量文本数据被广泛应用于各个领域。

在自然语言处理中,文本相似度计算是一项重要任务,它可以用于信息检索、问答系统、机器翻译等应用中。

2. 基于词向量的方法2.1 词袋模型词袋模型是最简单且常用的一种基于词向量的方法。

它将文本表示为一个固定长度的向量,其中每个维度表示一个词的出现频率。

然而,词袋模型无法捕捉到词语之间的语义关系。

2.2 Word2Vec模型Word2Vec模型是一种基于神经网络的词向量表示方法。

它通过训练一个神经网络,将每个词映射到一个固定长度的向量空间中。

Word2Vec 模型可以有效地捕捉到词语之间的语义关系。

2.3 GloVe模型GloVe(Global Vectors for Word Representation)模型是一种基于全局统计信息和局部上下文信息的词向量表示方法。

它通过最小化全局上下文和局部上下文之间的差异来学习词向量。

3. 基于句子向量的方法3.1 Skip-Thoughts模型Skip-Thoughts是一种基于编码器-解码器结构的句子级别语义表示方法。

它通过训练一个神经网络,将每个句子映射到一个固定长度的向量空间中。

3.2 InferSent模型InferSent是一种基于无监督学习和监督学习相结合的句子级别语义表示方法。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

有关中文文本相似度研究的文献综述摘要随着近年来知识自动化、机器学习和人工智能等领域研究和应用的逐步深入,作为与这些领域相关的基础研究课题之一,文本相似度计算的重要性日益凸显。

由于汉语书写的特点,导致中文文本相似度计算较英语等其他自然语言的处理又更加复杂。

本文在对近二十年来被引证次数较多的一些相关文献进行分析研究的基础上,从词语、句子、段落及篇章等层面,着重基于语义理解的方法,对汉语文本相似度计算研究的情况进行了综述。

关键词文本相似度计算;文献综述文本相似度计算在信息检索、数据挖掘、机器翻译、文档复制检测、自然语言处理、自动应答等领域都有着广泛的应用,是相关领域的基础研究课题之一,正在被越来越多的研究人员所关注。

文本相似度计算主要采用基于统计学和基于语义理解这两类方法。

其中基于统计学的计算方法包括向量空间模型、广义向量空间模型、隐性语义索引模型、基于屬性论的方法、基于海明距离的计算方法、基于数字正文的重构方法等;而中文语义理解又可分为基于知网、同义词词林、中文概念词典等不同的语义知识库。

相比而言,基于统计学的计算方法,需要大规模语料库的支持和长时间的训练过程,具有一定的局限性;而基于语义理解的相似度计算方法不需要大规模语料库的支持,也不需要长时间的训练,具有准确率高的特点[2]。

另一方面,根据计算的层级不同,文本相似度计算又可分为词语相似度、句子相似度、段落及篇章相似度。

1 词语相似度计算1.1 基于知网的词语相似度计算知网(HowNet)是一个以汉语和英语的词语所代表的概念为描述对象,以揭示概念与概念之间以及概念所具有的属性之间的关系为基本内容的常识知识库。

在知网中,词汇语义的描述被定义为义项(概念),每一个词可以表达为几个义项。

义项又是由一种知识表示语言来描述的,这种知识表示语言所用的词汇称作义原。

与一般的语义词典(如同义词词林或WordNet)不同的是,知网语义树并不涵盖所有词语,而是将描述词汇语义的义原用树状结构组织起来,并根据义原之间的属性关系分为多棵义原树,树与树之间又存在一定的关系,从而形成知网所具有的网状知识结构。

相比词汇的规模,知网的义原数量很少,只有1500多个,但其组合起来可以表达数以万计的词语[2]。

刘群和李素建提出了利用知网进行词语相似度的计算方法,指出基于知网的网状知识结构特点,可以将词语的相似度计算转化为义原的相似度计算,即通过计算两个待比较义原在义原树结构的距离来确定相似度,从而提高计算效率,并给出了词语相似度的计算公式[1]。

金博等在此基础上对义原相似度计算公式进行了改进,引入了表征两个义原在义原树中深度的相对位置影响因子。

进而将词语相似度计算方法推广到句子及段落的相似度计算,并通过实验对该算法进行了验证[2]。

此后,王小林[3]、张亮[4]、林丽[5]、江敏[6]等分别提出了类似或改进后的算法。

1.2 基于同义词词林的词语相似度计算同义词词林是梅家驹等于1983年编纂而成,该词典把词语按大类、中类、小类三层编码形成树状结构,每个小类的词语按词义远近和相关性分成若干词群(段落),每个段落的词语进一步分成若干行,同一行词语要么是词义相同或相近,要么是有很强相关性,共收录词语53859条。

此后,哈工大信息检索研究室在此基础上,经扩充新词汇、剔除罕用词,并于2004年公开了收录有77343条词语的同义词词林扩展版。

2014年哈工大正式发布了大词林。

作为开放域知识图谱,大词林是一种自动从网络中爬取实体及实体的概念,以形成基于上下位关系的通用知识图谱。

这意味着,如果用户输入的词语不被大词林所包含,大词林即会实时地到互联网上去搜索,以自动挖掘该词语的上位概念词,并将这些上位概念词整理为层次结构。

田久乐和赵蔚提出了一种基于同义词词林的词语相似度计算方法并给出了相应的计算公式。

该首先利用同义词词林结构中的义项编号,根据两个义项的语义距离并考虑该词语所在树的分支密度影响,计算出义项相似度;然后再把两个词语的各个义项分别两两计算,取其中最大值作为两个词语的相似度值。

经测试并与基于知网的算法比较,两种算法的计算结果基本一致,且与人们思维中的相似度值基本一致[7]。

此后吕立辉[8]、刘端阳[9]、朱新华[10]、陈宏朝[11]等分别提出了类似或改进后的算法。

2 句子相似度计算句子相似度计算不仅包括语义关系的辨别,还包括句子结构的辨别等问题,通过对句子结构的分析及词语相似度计算,可以计算句子相似度。

但由于汉句子中,词与词之间没有明显的分割符号。

因此句子相似度计算的第一步就是,把句中的汉字分割为合理的词语序列即汉语分词,并完成语义消歧(排除歧义)、词性标注等工作。

从1983年第一个实用分词系统CDWS诞生开始,国内外学者在汉语分词方面进行了广泛的研究,提出了很多有效的算法。

大致可分为两大类:第一类是基于语言学知识的规则方法,如:各种形态的最大匹配、最少切分方法以及综合了最大匹配和最少切分的N—最短路径方法,还有的研究者引入了错误驱动机制,甚至是深层的句法分析;另一类是基于大规模语料库的机器学习方法,如:N元语言模型、信道—噪声模型、最大期望、隐马模型等统计模型,这也是目前应用比较广泛、效果较好的解决方案。

而在实际的分词系统中,往往是规则与统计等多类方法的综合。

一方面,规则方法结合使用频率,形成了可训练的规则方法;另一方面,统计方法往往会自觉不自觉地采用一些规则排除歧义、识别数词、时间及其他未登录词[12]。

在汉语分词研究方面具有代表性的是,刘群和张华平等针对该问题,引入了层叠隐马尔可夫模型(cascaded hidden Markov model,CHMM),将汉语分词、切分排歧、未登录词识别、词性标注等词法分析任务融合到一个相对统一的理论模型中。

具体过程如下:首先采取N-最短路径粗分方法,快速地得到能覆盖歧义的最佳N个粗切分结果;随后采用两层隐马模型(hidden Markov model,HMM),在粗分结果集上,用低层隐马模型识别出普通无嵌套的人名、地名,并依次采取高层隐马模型识别出嵌套了人名、地名的复杂地名和机构名;然后识别并计算出未登录词的概率,进而将未登录词的概率加入到二元切分词图中,运用基于类的隐马模型切分方法,实现了未登录词和普通词的统一竞争和筛选;最后在全局最优的分词结果上进行词性的隐马标注[12]。

中科院计算所在此理论基础上开发了汉语词法分析系统ICTCLAS,并得到了广泛的应用。

李彬等提出利用句法分析器对句子依存关系进行分析并确定两个句子中有效搭配对,然后利用基于知网的语义相似度计算方法,通过计算有效搭配对中词语的相似度来确定句子的相似度[13]。

李茹等提出了在句子依存关系分析的基础上,利用框架语义分析来计算句子相似度的方法[14]。

刘宝艳等提出了一种基于改进编辑距离和依存文法相结合的汉语句子相似度计算方法[15]。

金博等提出,在应用ICTCLAS系统对句子进行分词处理后,根据实词的属性基于知网语义分别计算两个待比较句子中各个词性集合中实词的词语相似度,然后对各词性集合的词语相似度结果进行加权计算,从而得出句子的相似度。

这种方法跳了过句法分析的难点,通过对实词集合的相似度计算,使得句子相似度的计算更为有效[2]。

此外,吕学强[16]、王荣波[17]、杨思春[18]、周法国[19]等基于统计学方法分别提出了各自的句子相似度计算公式。

而张玉娟[20]、周舫[21]、程传鹏[22]等则在综合统计学和语义分析方法的基础上,提出了各自的句子相似度计算公式。

3 段落及篇章相似度计算段落及篇章相似度的计算方法有很多种,较为常见的是基于词频统计和字符串匹配。

如金博等针对学术论文等篇章结构规范且相对固定的文本,提出了一种论文抄袭检测方法。

该方法通过篇章结构分析,针对不同结构部分采用不同的检测方法。

针对正文和摘要部分采用基于词频统计和向量空间模型的算法,其中正文部分则将段落为文本块,依次计算每一段落与论文库中所有段落的相似度,然后通过加权平均给出正文部分的相似度;针对标题采用数字指纹方法计算相似度;而针对文章发表时间、作者、关键词、中图分类号及参考文献部分则直接采用否决函数来进行判断,从而有助于提高识别效率[23]。

同时,金博等又提出了一种基于语义的段落相似度计算方法。

即把段落视为句子的集合,进而将基于知网的词语和句子相似度计算方法推广到段落的相似度计算,并给出了两个段落中句子最大相似度组合的计算公式[2]。

唐果[24]、孙润志[25]、严春梅[26]等则将基于语义理解和向量空间模型结合在一起,提出了各自的相似度算法。

参考文献[1] 刘群,李素建.基于《知网》的词汇语义相似度计算[C].第三届汉语词汇语义学研讨会.第三届汉语词汇语义学研讨会论文集.台北:汉语词汇语义学研讨会,2002:59-76.[2] 金博,史彦军,滕弘飞.基于语义理解的文本相似度算法[J].大连理工大学学报,2005,(02):291-297.[3] 王小林,王义.改进的基于知网的词语相似度算法[J].计算机应用,2011,31(11):3075-3077,3090.[4] 张亮,尹存燕,陈家骏.基于语义树的中文词语相似度计算与分析[J].中文信息学报,2010,24(06):23-30.[5] 林丽,薛方,任仲晟.一种改进的基于《知网》的词语相似度计算方法[J].计算机应用,2009,29(01):217-220.[6] 江敏,肖诗斌,王弘蔚,等.一种改进的基于《知网》的词语语义相似度计算[J].中文信息学报,2008,(05):84-89.[7] 田久乐,赵蔚.基于同义词词林的词语相似度计算方法[J].吉林大学学报(信息科学版),2010,28(06):602-608.[8] 吕立辉,梁维薇,冉蜀阳.基于词林的词语相似度的度量[J].现代计算机(专业版),2013,(01):3-6,9.[9] 刘端阳,王良芳.结合语义扩展度和词汇链的关键词提取算法[J].计算机科学,2013,40(12):264-269,291.[10] 朱新华,马润聪,孙柳,等.基于知网与词林的词语语义相似度计算[J].中文信息学报,2016,30(04):29-36.[11] 陈宏朝,李飞,朱新华,等.基于路径与深度的同义词词林词语相似度计算[J].中文信息学报,2016,30(05):80-88.[12] 刘群,张华平,俞鸿魁,等.基于层叠隐马模型的汉语词法分析[J].计算机研究与发展,2004,(08):1421-1429.[13] 李彬,刘挺,秦兵,等.基于语义依存的汉语句子相似度计算[J].计算机应用研究,2003,(12):15-17.[14] 李茹,王智强,李双红,等.基于框架语义分析的汉语句子相似度计算[J].计算机研究与发展,2013,50(08):1728-1736.[15] 刘宝艳,林鸿飞,赵晶.基于改进编辑距离和依存文法的汉语句子相似度计算[J].计算机应用与软件,2008,(07):33-34,47.[16] 吕学强,任飞亮,黄志丹,等.句子相似模型和最相似句子查找算法[J].东北大学学报,2003,(06):531-534.[17] 王荣波,池哲儒.基于词类串的汉语句子结构相似度计算方法[J].中文信息学报,2005,(01):21-29.[18] 杨思春.一种改进的句子相似度计算模型[J].电子科技大学学报,2006,(06):956-959.[19] 周法国,杨炳儒.句子相似度计算新方法及在问答系统中的应用[J].计算机工程与应用,2008,(01):165-167,178.[20] 张玉娟.基于《知网》的句子相似度计算的研究[D].北京:中国地质大学(北京),2006.[21] 周舫.汉语句子相似度计算方法及其应用的研究[D].开封:河南大学,2005.[22] 程传鹏,吴志刚.一种基于知网的句子相似度计算方法[J].计算机工程与科学,2012,34(02):172-175.[23] 金博,史彦军,滕弘飞.基于篇章结构相似度的复制检测算法[J].大连理工大学学报,2007,(01):125-130.[24] 唐果.基于语义领域向量空间模型的文本相似度計算[D].昆明:云南大学,2013.[25] 孙润志.基于语义理解的文本相似度计算研究与实现[D].北京:中国科学院研究生院(沈阳计算技术研究所),2015.[26] 严春梅.向量空间模型与语义理解相结合的论文相似度算法研究[D].成都:西南交通大学,2015.。

相关文档
最新文档