文本挖掘介绍

合集下载

文本挖掘技术在新闻分析中的应用

文本挖掘技术在新闻分析中的应用

文本挖掘技术在新闻分析中的应用第一章:引言随着互联网的发展和普及,新闻信息瞬息万变,如何对这些信息进行高效的分析和挖掘,成为了亟待解决的问题。

文本挖掘技术作为一种有效的信息处理方法,在新闻分析中被广泛应用。

本文将结合实际案例,介绍文本挖掘技术在新闻分析中的应用,旨在为相关研究者和从业者提供一些参考。

第二章:文本挖掘技术概述文本挖掘技术,是指通过自然语言处理、数据挖掘、机器学习等技术,对大规模文本数据进行分析、挖掘和预测的一种技术。

文本挖掘技术常用的方法包括:文本分类、情感分析、主题分析、实体识别等。

文本挖掘技术的应用,可以帮助我们快速、准确地获取信息,同时帮助解决信息过载的问题。

第三章:文本挖掘技术在新闻分类中的应用文本分类是指将文本数据按照一定的类别进行归纳和分类。

在新闻领域,文本分类技术可以帮助我们将新闻进行分类和归档,便于我们快速准确地了解到各类新闻的最新动态。

为了达到高效、准确的分类效果,我们需要经过以下步骤:一、数据预处理:对数据进行清洗、分词、去除停用词等处理,从而减少数据的噪声和冗余信息。

二、特征提取:选取合适的特征,比如使用TF-IDF算法、词袋模型等方法将文本转化为向量,便于计算。

三、分类器训练:结合模型选择和评价方法,对文本进行分类器训练。

文本分类技术的实际应用非常广泛,比如在国外已经有一些机构使用文本分类技术来进行金融新闻的实时监测和情报分析。

第四章:文本挖掘技术在情感分析中的应用情感分析是指通过对文本数据的分析和挖掘,了解文本中所传达出的情感态度。

在新闻分析中,情感分析可以帮助我们了解新闻事件背后的主流情感观点,对政策、舆论、品牌影响等因素进行评估。

为了达到高效、准确的情感分析效果,我们需要经过以下步骤:一、数据预处理:对数据进行清洗、分词、去除停用词等处理,从而减少数据的噪声和冗余信息。

二、情感分类:选取合适的情感分类模型,比如基于字典的方法、基于统计的方法、基于深度学习的方法等,对文本进行案例分类。

文本挖掘的应用场景

文本挖掘的应用场景

文本挖掘的应用场景一、什么是文本挖掘文本挖掘是指从大规模的非结构化文本数据中提取有用信息的过程,它结合了自然语言处理、机器学习、统计学等多个领域的知识,可以帮助人们更好地理解和利用文本数据。

二、文本挖掘的应用场景1. 情感分析情感分析是指通过对文本进行分析,判断其中所表达的情感倾向。

这种技术可以应用于社交媒体、新闻评论等领域,帮助企业了解公众对其品牌或产品的看法。

2. 舆情监测舆情监测是指通过对网络上的各种信息进行收集和分析,以了解公众对某个话题或事件的看法。

这种技术可以应用于政府、企业等机构,帮助他们更好地了解社会热点,并及时采取相应措施。

3. 文本分类文本分类是指将大量的无序文本数据按照一定规则进行分类。

这种技术可以应用于搜索引擎、电商平台等领域,帮助用户更快地找到自己需要的信息或商品。

4. 关键词提取关键词提取是指从文本中提取出最能代表文本主题的词语。

这种技术可以应用于信息检索、知识管理等领域,帮助用户更快地找到自己需要的信息。

5. 自动摘要自动摘要是指通过对文本进行分析,提取出其中最重要的信息,并生成一段简短的摘要。

这种技术可以应用于新闻报道、科技论文等领域,帮助读者更快地了解文章内容。

6. 垃圾邮件过滤垃圾邮件过滤是指利用文本挖掘技术对电子邮件进行分类,将垃圾邮件自动过滤掉。

这种技术可以应用于企业、个人等领域,帮助用户更好地管理自己的电子邮件。

三、文本挖掘的具体实现文本挖掘的实现通常包括以下几个步骤:1. 数据收集:收集大量的非结构化文本数据,如社交媒体上的评论、新闻报道等。

2. 数据预处理:对收集到的数据进行清洗和处理,如去除无意义字符、停用词等。

3. 特征提取:从预处理后的数据中提取出有意义的特征,如关键词、情感倾向等。

4. 模型训练:利用机器学习、统计学等方法,对提取出的特征进行训练,生成文本挖掘模型。

5. 模型应用:将训练好的模型应用于新的文本数据中,实现情感分析、舆情监测等功能。

网络爬虫与文本挖掘技术

网络爬虫与文本挖掘技术

网络爬虫与文本挖掘技术在当前信息爆炸的时代,人们获得信息的途径越来越多,其中最常见的方式就是通过互联网获取相关的信息。

然而,海量的网络数据却给人们带来了极大的挑战:如何快速搜集、处理和分析这些海量网络数据中有价值的信息。

此时,“网络爬虫”和“文本挖掘”等技术应运而生,成为了有效处理网络数据的重要工具。

一、网络爬虫技术在大多数情况下,人们需要从网络上获取大量的数据,从而进行数据的分析和处理,这就需要使用网络爬虫技术。

网络爬虫技术是指在互联网上通过程序自动化地获取信息的技术。

网络爬虫技术主要包括以下几个方面:1. 网络数据的获取方式网络爬虫技术通过在互联网上访问网页,从中提取信息,并将这些信息存储在本地计算机中。

其中,通过HTML标签的识别实现对目标数据的获取。

2. 数据的处理方式在通过网络爬虫技术成功获取数据后,需要对数据进行处理,以便进行下一步的分析。

这通常包括数据清洗、数据格式转换和数据标准化等过程。

3. 爬虫的效率随着互联网上数据的迅速增长,网络爬虫要在短时间内访问尽可能多的网站,这就需要通过控制网络请求的频率,提高访问效率。

4. 爬虫的提取方式为了保证从网络上获取有用信息的准确率和完整性,网络爬虫通常需根据不同的网站设置不同的爬取规则。

二、文本挖掘技术文本挖掘是指从文本中自动加工和提取有用知识的过程,是数据挖掘的一个分支领域。

文本挖掘技术主要包括以下三个过程:1. 文本加工文本加工主要是指对文本的预处理操作,例如,删除停用词、词干化、词形还原等操作。

这些操作能够提高文本的特征表示效果,使机器学习等算法更好地作用于原始文本数据。

2. 特征提取特征提取主要是指从处理过后的文本中提取关键特征和特征向量,为后续的数据分析提供基础支撑。

例如,从文本中提取关键词、短语或句子来表示文本的主题。

3. 数据挖掘数据挖掘是文本挖掘技术中最基本的任务,其目的是从处理好的文本中提取出有用的信息或模式,帮助人们做出科学合理的决策。

自然语言处理与文本挖掘

自然语言处理与文本挖掘

自然语言处理与文本挖掘自然语言处理(Natural Language Processing,NLP)和文本挖掘(Text Mining)是两个密切相关且相互支持的领域。

本文将介绍它们的定义、关系以及应用领域,并探讨它们在当今信息时代的重要性和前景。

一、自然语言处理的定义和原理自然语言处理是一门通过计算机技术处理和分析人类语言的学科。

它研究如何让计算机能够理解、解释和生成自然语言,实现与人类之间的自然语言交互。

自然语言处理的核心原理包括词法分析、句法分析、语义分析和语用分析。

词法分析负责将自然语言文本切分成词汇单元,句法分析则用来分析句子的结构和语法关系,语义分析则解决词汇的实际意义,语用分析则处理上下文和交际意图。

二、文本挖掘的定义和原理文本挖掘是指通过自动化技术从大量文本数据中发现新知识、信息和模式的过程。

它结合了自然语言处理、机器学习和统计学的方法,通过对文本进行处理、分析和建模来提取有用的信息。

文本挖掘的主要步骤包括预处理、特征提取、模型构建和评估。

预处理阶段包括文本清洗、分词和标注等操作,特征提取则将原始文本转化为数值表示,模型构建则应用机器学习和统计方法,最后通过评估来验证模型的性能。

三、自然语言处理与文本挖掘的关系自然语言处理和文本挖掘是相互依存的关系。

自然语言处理通过技术手段处理自然语言的特点和结构,为文本挖掘提供了必要的前置处理。

文本挖掘则通过分析、建模和挖掘文本信息,提供了对大规模文本数据的深层次理解和利用。

自然语言处理的技术可以为文本挖掘提供词法分析、句法分析和语义分析等基础工具,帮助挖掘文本中的隐含知识和关联关系。

而文本挖掘的模式识别和信息提取技术,则可以为自然语言处理提供丰富的语料和语言现象分析。

四、自然语言处理与文本挖掘的应用自然语言处理和文本挖掘在现实生活和商业中有广泛的应用。

以下是几个典型的应用领域:1. 智能助理和聊天机器人:通过自然语言处理技术,使得机器能够理解人们的语言输入,并能够回答问题、提供建议和完成任务。

数据挖掘技术在文本挖掘中的使用教程

数据挖掘技术在文本挖掘中的使用教程

数据挖掘技术在文本挖掘中的使用教程随着互联网的迅猛发展,大量的文本数据涌现在各个领域。

如何从这些海量的文本数据中提取有用的信息,成为了一项具有挑战性的任务。

为解决这个问题,数据挖掘技术在文本挖掘中逐渐得到了广泛应用。

本文将介绍数据挖掘技术在文本挖掘中的基本概念和常用方法,帮助读者了解如何利用数据挖掘技术进行文本挖掘。

一、文本挖掘概述文本挖掘是指从大量的文本数据中自动地提取出有用的知识和信息。

它结合了信息检索、自然语言处理和数据挖掘等多个技术领域。

对于文本挖掘任务,常见的包括文本分类、文本聚类、情感分析等。

二、数据预处理在进行文本挖掘之前,需要对文本数据进行预处理。

主要包括以下几个步骤。

1. 文本清洗:去除文本中的HTML标签、特殊符号、停用词等,只保留有意义的内容。

2. 分词:将文本切分成一个个独立的词语,便于后续处理。

3. 去除低频词:去除在整个文本数据中出现频率较低的词语,可以减少噪音带来的影响。

4. 词性标注:为每个词语标注词性,可以方便后续的特征提取和分析。

三、特征提取对于文本数据,需要将其转化为机器学习算法能够处理的特征向量。

常见的特征提取方法有以下几种。

1. 词袋模型:将文本表示为一个词语的集合,忽略了词语的顺序和语法,只关注词语的出现与否。

2. TF-IDF:考虑了词语的出现频率和在整个文本数据中的重要程度,能够更好地表示词语的信息。

3. Word2Vec:利用神经网络方法将词语映射到一个连续的向量空间中,能够更好地表示词语的语义信息。

4. 主题模型:通过对文本进行聚类分析,将文本数据归纳为若干个主题,可以更好地求解文本分类和聚类问题。

四、文本分类文本分类是将文本归类到不同的类别中的过程。

常见的文本分类算法有以下几种。

1. 朴素贝叶斯:基于贝叶斯定理和特征条件独立假设,能够快速进行文本分类,但对特征之间的关联性要求较低。

2. 支持向量机:通过在特征空间中找到一个超平面,将不同的类别分开,能够处理高维空间的文本分类问题。

文本挖掘技术的使用教程与技巧

文本挖掘技术的使用教程与技巧

文本挖掘技术的使用教程与技巧文本挖掘技术是一种通过自动化方法从海量文本数据中提取有用信息的技术。

它在各个领域中都有着广泛的应用,例如信息检索、情感分析、文本分类等。

本文将介绍文本挖掘技术的使用教程与技巧,帮助读者快速了解并应用这一技术。

一、文本挖掘技术的概述文本挖掘技术是通过将自然语言处理、机器学习和统计学等方法结合,从海量文本数据中自动发现模式、识别主题、提取关键字、分析情感等信息的技术。

它可以帮助人们从大量文本中获取有价值的信息,辅助决策和预测。

二、文本挖掘技术的基本步骤1. 文本预处理:对原始文本进行处理,包括分词、去停用词、词性标注、去除噪音等。

这一步是文本挖掘的关键,直接影响后续步骤的效果。

2. 特征提取:将文本转化为特征向量表示,常用的方法包括词袋模型、TF-IDF、词向量等。

选择适当的特征表示方法可以提高文本挖掘的准确率。

3. 模型构建:根据具体任务的需求选择合适的算法模型,例如朴素贝叶斯分类器、支持向量机、深度学习模型等。

不同的任务可能需要不同的模型,需要根据实际情况进行选择。

4. 模型训练与评估:使用标注好的数据进行模型训练,并使用评估指标(如准确率、召回率、F1值等)评估模型性能。

5. 结果解释与可视化:对挖掘结果进行解释和分析,并采用可视化技术将结果呈现给用户,提升可理解性和可视性。

三、文本挖掘技术的常见任务与应用1. 信息检索:通过文本挖掘技术,可以建立强大的搜索引擎,实现高效快速地从海量文本中检索出相关信息。

搜索引擎可以应用于网页搜索、文档检索等场景。

2. 文本分类:将文本按照一定的类别划分,常用于情感分析、主题分类等。

通过文本分类,可以自动将文本归类,提高信息处理的效率和精确度。

3. 情感分析:分析文本中蕴含的情感倾向,帮助企业了解用户的情感态度。

在社交媒体分析、舆情监测等领域,情感分析具有重要的应用价值。

4. 关键词提取:从文本中提取关键词或关键短语,帮助用户快速理解文本主题。

如何用Python进行文本挖掘和情感分析

如何用Python进行文本挖掘和情感分析

如何用Python进行文本挖掘和情感分析文本挖掘和情感分析是自然语言处理领域中的重要任务之一,可以通过Python来实现。

本文将介绍如何使用Python进行文本挖掘和情感分析,并给出详细的步骤和代码示例。

1.文本挖掘介绍文本挖掘(Text Mining)是从大规模文本数据中提取有价值的信息和知识的一种技术。

它包括文本分类、命名实体识别、信息抽取、文本聚类、关键词提取等任务。

2.情感分析简介情感分析(Sentiment Analysis)是一种对文本的情感倾向进行分析的技术。

它可以判断文本中的情感是正面、负面还是中性的。

情感分析在社交媒体分析、用户评论分析等场景中有很多应用。

接下来,我们将分步骤介绍如何使用Python进行文本挖掘和情感分析。

3.数据预处理在进行文本挖掘和情感分析之前,我们首先要对文本数据进行预处理。

预处理包括文本清洗、分词、去除停用词等步骤。

3.1文本清洗文本清洗是指去除文本数据中的特殊字符、标点符号、HTML标签等,以便更好地进行后续处理。

可以使用正则表达式库re来进行文本清洗。

```pythonimport redef clean_text(text):#去除特殊字符和标点符号text = re.sub(r"[^a-zA-Z0-9\u4e00-\u9fff]", " ", text) return text```3.2分词分词是将文本切分成一个个独立的词语,以便进行后续的分析。

常用的中文分词工具有结巴分词(jieba)和哈工大LTP分词器等。

```pythonimport jiebadef word_segmentation(text):#使用结巴分词进行分词seg_list = jieba.cut(text)return " ".join(seg_list)```3.3去除停用词停用词是指在文本中频率很高,但实际意义不大的词语,如“的”、“是”、“了”等。

(完整版)第5章-文本挖掘PPT课件

 (完整版)第5章-文本挖掘PPT课件

5.4 文本聚类
1 步骤 Document representation Dimensionality reduction Applying a clustering algorithm Evaluating the effectiveness of the
process
2 评价指标
总体评价
(11)查词表,W不在词表中,将W最右边一个字去 掉,得到W="是三" (12)查词表,W不在词表中,将W最右边一个字去掉 ,得到W=“是”,这时W是单字,将W加入到S2中,
S2=“计算语言学/ 课程/ 是/ ”, 并将W从S1中去掉,此时S1="三个课时";
(21) S2=“计算语言学/ 课程/ 是/ 三/ 个/ 课时/ ”,此时 S1=""。
文本频数
词的DF小于某个阈值去掉(太少,没有代 表性)。
词的DF大于某个阈值也去掉(太多,没有 区分度)。
信息增益
信息增益是一种基于熵的评估方法,定义为 某特征项为整个分类系统所能提供的信息量。 是不考虑任何特征的熵与考虑该特征之后熵 的差值。它根据训练数据计算出各个特征项 的信息增益,删除信息增益很小的特征项, 其余的按照信息增益的大小进行排序,获得 指定数目的特征项。
Gain(t) Entropy (S) Expected Entropy( St)
{
M i1
P
(
ci
)
log
P(ci
)}
[ P (t ){
M i1
i
|
t)}
P(t ){
M i1
P(ci
|
t
)
log
P(ci
|
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

利用矩阵理论中的“奇异值分解(singular value decomposition,SVD)”技术,将词频矩阵转化为奇异矩阵 (K×K)

潜在语义标引方法基本步骤:


1.建立词频矩阵,frequency matrix 2.计算frequency matrix的奇异值分解

分解frequency matrix成3个矩阵U,S,V。U和V是正交矩阵( UTU=I),S是奇异值的对角矩阵(K×K)
(规则依赖于词与词性的各种组合,挖掘过程较为复杂)
基于规则的词性标注(续)

主要依靠上下文来判定兼类词。


这是一张白纸(“白”出现在名词”纸”之前,判定为形容词) 他白跑了一趟(“白”出现在动词“跑”之前,判定为副词)

词性连坐:在并列的联合结构中,联合的两个成分的词 类应该相同,如果其中一个为非兼类词,另一个为兼类 词,则可把兼类词的词性判定为非兼类词的词性。

表示(文档建模):

V (d ) (t1, w1(d );...; ti , wi (d );...; tn, wn(d ))
(其中ti为词条项,wi(d)为ti在d中的权值)
文本特征评价函数的数学表示

信息增益(information gain)
__
InfGain( F ) P (W ) P (C i W ) log
语义自动标注的方法

以字义定词义

词=字+…+字
利用检索上下文中出现的相关词的方法来确定多 义词的义项

词之间的亲和程度(pen) 词性搭配(plan)
选择多义词各个义项中使用频度最高的义项为它在文本中的当前义项。这显然 不是一种科学的办法,但仍然有一定的正确率。 据统计,用最大可能义项来消解多义,对于封闭文本,正确率仅为67.5%,对 于开放文本,正确率更低,仅为64.8%。 目前不少机器翻译系统,都采用这种最大可能义项来确定多义词的词义,,这 是这些机器翻译系统译文质量低劣的主要原因之一。
S1

1 1 1 1 1 0
… …
1 1

S2
• •
按位操作进行匹配,确定文档的相似形 可以多词对应一个比特位,来减少位串的长度,但增加搜素开销 ,存在多对一映射的缺点。
学习与知识模式的提取
分 词 及 非 用 词 处 理 特征提取 名字识别 日期处理 数字处理
文 本 源
找出与给定词集相关的所有文档 找出与指定文档相关的所有词 易实现,但不能处理同义词和多义词问题,posting_list非常长,存 储开销大

签名文件(signature file)
词性标注

定义:将句子中兼类词的词性根据上下文 唯一地确定下来。 兼类词分类:

同型异性异义兼类词:例如:领导(动词/名词) 同型异性同义兼类词:例如:小时(量词/名词) 异型同性同义兼类词:例如:电脑,计算机

自动词性标注就是用计算机来自动地给文 本中的词标注词类。

在英语、汉语等自然语言中,都存在着大量的词的兼类现象, 这给文本的自动词性标注带来了很大的困难。因此,如何排除 词类歧义,是文本自动词性标注研究的关键问题。

标注技术路线:基于概率统计和基于规则
自动词类标注

早在60年代,国外学者就开始研究英语文本的自 动词类标注问题,提出了一些消除兼类词歧义的 方法,建立了一些自动词性标注系统。
Web文本挖掘的过程
特征的 建立
文档集
特征集 的缩减
学习与知识 模式的提取
模式质量 的评价
知识模式
Web文本挖掘的一般处理过程
文本特征的建立


定义:文本特征指的是关于文本的元数据。 分类:

描述性特征:文本的名称、日期、大小、类型等。 语义性特征:文本的作者、标题、机构、内容等。 采用向量空间模型(VSM)(矩阵) 特征向量

我读了几篇文章和报告 “文章”为名词,是非兼类词,“报告”为动-名兼类词,由于处于联合结 构中,故可判定“报告”为名词。

清华大学计算机系黄昌宁等采用统计方法建立了 一个自动词性标注系统,标注正确率达96.8%, 自动标注的速度为每秒175个汉字。
自动语义标注


一词多义,形成了词的多义现象,自动语义标注 主要是解决词的多义问题。 一词多义也是自然语言中的普遍现象,但是,在 一定的上下文中,一个词一般只能解释为一种语 义。 所谓自动语义标注,就是计算机对出现在一定上 下文中的词语的语义进行判定,确定其正确的语 义并加以标注。
Doc_1
Doc_2 ┇ Doc_n
• • •
t1_1, ... ,t1_n
t2_1, ... ,t2_n ┇ tn_1, ... ,tn_n
Term_1
Term_2 ┇ Term_n
doc_1, ... , doc_i
doc_1, ... , doc_ j ┇ doc_1, ... , doc_n

文本证据权(the weight of evidence for text)
WeightofEvidTxt( F ) P(W ) P(Cቤተ መጻሕፍቲ ባይዱi ) log
i
P(C i W )(1 P(C i )) P(C i )(1 P(C i W ))

词频(word frequency)
) W( FT ) F (gerF
VOLSUNGA算法

VOLSUNGA算法对CLAWS算法的改进主要有两个方面


在最佳路径的选择方面,不是最后才来计算概率积最大的标记串,而是沿 着从左至右的方向,采用“步步为营”的策略,对于当前考虑的词,只保 留通往该词的最佳路径,舍弃其他路径,然后再从这个词出发,将这个路 径同下一个词的所有标记进行匹配,继续找出最佳的路径,舍弃其他路径 ,这样一步一步地前进,直到整个跨段走完,得出整个跨段的最佳路径作 为结果输出。 根据语料库统计出每个词的相对标注概率(Relative Tag Probability),并用 这种相对标注概率来辅助最佳路径的选择。



先从待标注的LOB语料库中选出来部分语料,叫做“训练集” (Training Set), 对训练集中的语料逐词进行词性的人工标注, 然后利用计算机对训练集中的任意两个相邻标记的同现概率进 行统计,形成一个相邻标记的同现概率矩阵。 进行自动标注时,系统从输入文本中顺序地截取一个有限长度 的词串,这个词串的首词和尾词的词性应该是唯一的,这样的 词串叫做跨段(span),记为W0,W1,W2,…,Wn,Wn+1 。其中, W0 和Wn+1 都是非兼类词, W1,W2,…,Wn 是n个兼类词。 利用同现概率矩阵提供的数据来计算这个跨段中由各个单词产 生的每个可能标记的概率积,并选择概率积最大的标记串作为 选择路径(path),以这个路径作为最佳结果输出。
基于概率统计的CLAWS算法

CLAWS是英语Constituent-Likelihood Automatic Wordtagging System(成分似然性自动词性自动标注系统)的 简称,它是1983年玛沙尔(Mashall)在给LOB语料库(拥 有各类文体的英国英语语料库,库容量为100万词)作自 动词性标注时提出的一种算法。具体做法是:

互信息(mutual information)
MutualInfo ( F ) P(C i ) log Txt
i
P(W C i ) P(W )
F是对应于单词W的特征; P(W)为单词W出现的概率; P(Ci)为第i类值的出现概率; p(Ci|W)为单词W出现时属于第i类 的条件概率。
文本特征评价函数的数学表示(续)


利用上下文搭配关系来确定多义词的词义

用最大可能义项来消解多义

其他文本检索标引技术(续)

签名文件(signature file)

定义:是一个存储数据库中每一个文档的特征记录的文件 方法:每一个特征对应一个固定长度的位串,一个比特位 对应一个词汇,若某一位对应的词出现在文档中则,则该 位置1,否则置0。
P(W)为单词W出现的概率; P(Ci)为第i类值的出现概率; p(Ci|W)为单词W出现时属于第i类的条件概率; TF(W)为单词在文档集中出现的次数。
文档建模

词频矩阵

行对应关键词t,列对应文档d向量 将每一个文档视为空间向量v 向量值反映单词t与文档d的关联度
表示文档词频的词频矩阵

VOLSUNGA算法大大地降低了CLAWS算法的时间复杂度 和空间复杂度,提高了自动词性标注的准确率。
统计方法的缺陷


CLAWS算法和VOLSUNGA算法都是基于统计 的自动标注方法,仅仅根据同现概率来标注词性 。但是,同现概率仅只是最大的可能而不是唯一 的可能,以同现概率来判定兼类词,是以舍弃同 现概率低的可能性前提的。 为了提高自动词性标注的正确率,还必须辅之以 基于规则的方法,根据语言规则来判定兼类词。
1
) 2
v v v v
1 1
2 2
其中 v1 , v2 为两个文档向量,
1 2
内积 v v 为标准向量点积,定义为 i 1 v1i v 2 i ,
t
v 定义为 v1
1

v v
1
1

缺点:文档“无限”,导致矩阵增大,计算量增加
特征集的缩减

潜在语义标引(latent semantic indexing)方法
基于规则的标注


基于规则的方法通过考虑上下文中的词及标记对 兼类词的影响决定兼类词的词性,常常作为基于 概率统计方法的补充。将统计方法和规则方法结 合被认为是解决词性标注问题的最佳手段。 在统计语料规模较大的情况下,结合给定最小支 持度及最小可信度,首先发现大于最小支持度常 用模式集,然后生成关联规则。若此规则的可信 度大于给定的最小可信度,则得到词性规则。只 要最小可信度定义得足够高,获得的规则就可以 用于处理兼类词的情况。
相关文档
最新文档