中文分词技术研究

合集下载

汉语分词技术研究现状与应用展望

汉语分词技术研究现状与应用展望
系统可以面向解决实际问题 的需求和真实语料 中使用的频繁程度来规定 “ 分词单位” 分词单位可 以是同 . 词表中词完全一致 , 也可以是包含未登录词识别 以及一些词法分析的切分单位 , 例如 , 一些人名 、 地名 、 机 构名 、 国人译名 , 外 一些动词和形容词重叠结构 、 附加词都可以作为分词单位予以识别 和切分. 因此 , 于 对
续的字符串( , C )输 出是汉语的词 串( . CC C… ,
2 1 通用 词表和 切分 规范 .
… ) 这里 , 可 以是单字词也可 以是多字 ,
词. 那么 , 在这个过程中, 我们所要解决 的关键问题是什么 , 我们又有什么样 的解决方案呢? 至今为止 , 分词系统仍然没有一个统一的具有权威性的分词词表作为分词依据. 这不能不说是分词系
要 解决 的重要 问题 ,
除了同音词的自动辨识 , 汉语的多音字 自动辨识仍然需要分词 的帮助. 例如 : 校 、 、 、 、 等都 “ 行 重 乐 率” 是多音字. 无论是拼音 自动标注还是语音合成都需要识别出正确的拼音. 而多音字的辨识可以利用词以及
句子中前后词语境 , 即上下文来实现. 如下面几个多音字都可以通过所在的几组词得 以定音 : ) 、 z n ) 重(hn ) 快乐(e/ jo 对 行( ag 列/ x g 进 重(h g 量/ cog 新、 i n o 1)音乐 (u ) 率 (h a) 效 ye 、 sui领/
率( ) 1. v
2 汉语分词所面临 的关键 问题
汉语分词是由计算机 自动识别文本中的词边界的过程. 从计算机处理过程上看 , 分词系统的输入是连
定义两个字的互信息计算两个汉字结合程互信息体现了汉字之间结合关系的紧密程度需要大量的训练文本用以建立模型的参数到底哪种分词算法的准确度更高目前尚无定论对于任何一个成熟的分单独依靠某一种算法来实现都需要综合不同的算法汉语分词技术的应用国内自80年代初就在中文信息处理领域提出了自动分词从而产生了一些实用京航空航天大学计算机系1983年设计实现的cdws分词系统是我国第一个实用的自度约为625开发者自己测试结果下同早期分词系统机系研制的abws自动分词系统和北京师范大学现代教育研究所研制的书面汉语这些都是将新方法运用于分词系统的成功尝试具有很大的理论意义随后比较有代表性的有清华大学seg和segtag分词系统复旦分词系统州大学改进的mm分词系统北大计算语言所分词系统分词和词类标注相结合在自然语言处理技术中中文处理技术比西文处理技术要落后很大一段距离文不能直接采用就是因为中文必需有分词这道工序汉语分词是其他中文信息处理是汉语分词的一个应用语音合成自动分类自动摘要要用到分词因为中文需要分词可能会影响一些研究但同时也为一些企业带来机会参考文献汉语信息处理词汇01部分朱德熙

中文分词技术的研究

中文分词技术的研究
应运 而生 。 信息 过 滤[ 就是 根据 用户 的信 息需 求 , 1 ] 利用

至关重 要 的因素 。 所周 知 , 众 中文 文本与英 文文本 的表 示 方法 有 所不 同 , 英文 文本 中词 与词 中间都 由空 格或
标 点符 号隔开 , 因而 词与词 之间 的界限很 明显 , 以很 可 容 易地 获 取关键 词 , 中文 文 本 中词 与词则 元 明显 的 而
第2卷 3
第 3 期
电 脑 开 发 与 应 用
文章 编 号 :0 35 5 ( 0 0 0 -0 10 1 0—8 0 2 1 )30 0 — 3
中文 分 词技 术 的研 究
Re e r h o i s o d S g e a i n Te hn q e s a c n Ch ne e W r e m nt to c i u s
依 赖 于 分词 词典 的好 坏 , 于无 词典 的分 词算 法 不需 基 要利 用词 典 信息 , 通过 对 大规 模 的生语 料库 进 行 统 它 计分析 , 自动 地 发现 和学 习词汇 , 分词精 度 来 看 , 从 基
于词典 的分 词算法 要大 大优于无 词典 的分词算 法 。
3 1 基 于足 够 的词 来供 分 析程 序处 理 , 计
算 机如何 完成这 一过 程 ? 其处 理过程 就称为分 词算 法 。
现 有的分 词 算法 按 照 是否 使用 分词 词典 来 分 , 可 分 为基 于 词 典 的 分 词 算 法 和 基 于 无 词 典 的 分 词 算
定 的工 具从 大规 模 的动 态信 息流 中 自动筛 选 出满足
用户 需求 的信 息 , 同时 屏蔽 掉无 用信 息 的过程 。 目前很

面向专利文献的中文分词技术的研究

面向专利文献的中文分词技术的研究

面 向专 利 文 献 的 中 文 分 词 技 术 的 研 究
张桂 平 , 东 生 , 刘 尹宝 生 , 徐立 军 , 雪 雷 苗
( 阳 航 空工 业 学 院 知识Байду номын сангаас二 程 中心 ,辽 宁 沈 阳 1 0 3 ) 沈 r 1 0 4

要 : 对 专利 文 献 的 特 点 , 文提 出 了一 种 基 于 统计 和 规 则相 结合 的 多 策略 分 词 方 法 。该 方 法 利 用 文 献 中潜 针 该
c e e od r s t n t e co e a d o nng ts ,w ih i pr ve n u hiv sgo e uls i h ls n pe i e t t m o s o nkn w n w o d e o nii s w e1 o r s r c g ton a l. Ke r s:c y wo d omput ra e ppl a i i ton; Chie e i o ma i o e sn c n s nf r ton pr c s i g; Chi s wo d s gm e t ton; pa e t o um e ; ne e r e nai t n d c nt c nt x n or a in o e ti f m to
Re e r h o i e e W o d S g e a i n f r Pa e tDo u e t s a c n Ch n s r e m nt to o t n c m n s Z HANG Gupn ,L U o g h n YI B o h n ,XU i n lig I D n s e g, N a s e g Lj ,M I ee u AO Xu li
lr e s a ec r u n h p cfcc n e ti f r t n h sme h d e fc i ey s l e h r b e o h u — fv — a g c l o p s a d t e s e i o tx n o ma i ,t i i o t o fe tv l o v s t e p o l m ft eO t - o o

中文分词技术的研究及在Nutch中的实现

中文分词技术的研究及在Nutch中的实现

O 引 言
I Anlzr中 文 分 词 器 采 用 字 典 分 词 法 并 结 合 正 反 向 全 切 分 以 K aye
擎排序算法都是保 密的, 我们无法知道搜索出来的排序结果是如何算 P o ig a zr分 词 器 , 然 后 是 MMa a zr分 词 器 ,最 慢 的 是 adnAnl e y nl e y 出来 的不 同 , 任何人都 可以查看 N t ue h的排序算 法 , 而且一 些搜索 引 I A aye 分 词器 k n lz r 擎的排名还有很多商业 因素 , 比如 百 度 的 排 名 就 和竞 价 有 关 . 样 的 这
An lz r lzr aye ̄ y e; ma
11 测 试 文 本 的 选 择 .
对 准确 度 进 行 测 试 用 句 为 : “ 北 科 技 大 学 坐 落 在 太 行 山 东 麓 的河 北 省 省 会 石 家庄 市 .9 6 河 1 9 年 由河 北 轻 化 工 学 院 、 北 机 电 学 院 和 河北 省 纺织 职 工 大 学 合 并 组 建 河
CJ KAn lzr I C nl e 、 ay e 、K a a zr y MMAnlzr E 、adnAnlzr。 a e( )P o ig ayey y J
_
中 文分 析 部 分 ( 询 和 索 引 )将 下载 的 中 文 分 词 包 放 到 11 查 : . 目录 } 下, 打开 N t D e m nA aye.v , uc ou e tn l raa 修改 tkn t a 方 法 如 下 h z j o eSr m e p biTk n t a tk nt a Sr gilN me R a e ed r u l o eSr m oe Sr m(tnf d a , edr ae) c e e i e r {

中文分词与词性标注技术研究与应用

中文分词与词性标注技术研究与应用

中文分词与词性标注技术研究与应用中文分词和词性标注是自然语言处理中常用的技术方法,它们对于理解和处理中文文本具有重要的作用。

本文将对中文分词和词性标注的技术原理、研究进展以及在实际应用中的应用场景进行综述。

一、中文分词技术研究与应用中文分词是将连续的中文文本切割成具有一定语义的词语序列的过程。

中文具有词汇没有明确的边界,因此分词是中文自然语言处理的基础工作。

中文分词技术主要有基于规则的方法、基于词典的方法和基于机器学习的方法。

1.基于规则的方法基于规则的中文分词方法是根据语法规则和语言学知识设计规则,进行分词操作。

例如,按照《现代汉语词典》等标准词典进行分词,但这种方法无法处理新词、歧义和未登录词的问题,因此应用受到一定的限制。

2.基于词典的方法基于词典的中文分词方法是利用已有的大规模词典进行切分,通过查找词典中的词语来确定分词的边界。

这种方法可以处理新词的问题,但对未登录词的处理能力有所限制。

3.基于机器学习的方法基于机器学习的中文分词方法是利用机器学习算法来自动学习分词模型,将分词任务转化为一个分类问题。

常用的机器学习算法有最大熵模型、条件随机场和神经网络等。

这种方法具有较好的泛化能力,能够处理未登录词和歧义问题。

中文分词技术在很多自然语言处理任务中都起到了重要的作用。

例如,在机器翻译中,分词可以提高对齐和翻译的质量;在文本挖掘中,分词可以提取关键词和构建文本特征;在信息检索中,分词可以改善检索效果。

二、词性标注技术研究与应用词性标注是给分好词的文本中的每个词语确定一个词性的过程。

中文的词性标注涉及到名词、动词、形容词、副词等多个词性类别。

词性标注的目标是为后续的自然语言处理任务提供更精确的上下文信息。

1.基于规则的方法基于规则的词性标注方法是根据语法规则和语境信息,确定每个词语的词性。

例如,根据词语周围的上下文信息和词语的词义来判断词性。

这种方法需要大量的人工制定规则,并且对于新词的处理能力较差。

中文分词技术的研究现状与困难

中文分词技术的研究现状与困难

四、解决方案
为了克服中文分词技术的研究困难,以下一些解决方案值得:
1、优化分词算法:针对分词算法的复杂性问题,可以尝试优化算法的设计和 实现,提高其效率和准确性。例如,可以通过引入上下文信息、利用语言学知 识等方式来改进算法。
2、改进信息检索技术:在信息检索领域,可以尝试将先进的排序算法、推荐 系统等技术引入到检索过程中,以提高检索效果。此外,还可以研究如何基于 用户行为和反馈来优化检索结果。
3、缺乏统一的评价标准:中文分词技术的评价标准尚未统一,这使得不同研 究之间的比较和评估变得困难。建立通用的中文分词技术评价标准对于推动相 关研究的发展至关重要。
4、特定领域的应用场景:中文分词技术在不同领域的应用场景中面临着不同 的挑战。例如,在金融领域中,需要分词技术对专业术语进行精确识别;在医 疗领域中,需要处理大量未登录词和生僻字。如何针对特定领域的应用场景进 行优化,是中文分词技术的重要研究方向。
3、建立大型标注语料库:通过建立大型标注语料库,可以为分词算法提供充 足的训练数据,提高其准确性和自适应性。此外,标注语料库也可以用于开发 基于规则的分词方法和测试集的构建。
4、研究跨领域的应用场景:针对不同领域的应用场景,可以研究如何将中文 分词技术进行迁移和适配。例如,可以通过知识图谱等技术将不同领域的知识 引入到分词过程中,以提高分词效果。
然而,各种分词方法也存在一定的局限性和不足。例如,基于规则的分词方法 需要人工编写规则和词典,难以维护和更新;基于统计的分词方法需要大量标 注语料库,而且训练模型的时间和计算成本较高;基于深度学习的分词方法虽 然取得了较好的效果,但也需要耗费大量的时间和计算资源进行训练。
三、研究困难
中文分词技术的研究面临着诸多困难和挑战,以下是一些主要词方法:该方法主要依靠人工编写的分词规则来进行分词。 代表性的工作包括台湾大学开发的中文分词系统“THULAC”和北京大学开发 的“PKU中文分词系统”。这些系统均基于词典和规则,具有较高的准确率和 召回率。

基于深度学习方法的中文分词和词性标注研究

基于深度学习方法的中文分词和词性标注研究

基于深度学习方法的中文分词和词性标注研究中文分词和词性标注是自然语言处理中的重要任务,其目的是将输入的连续文字序列切分成若干个有意义的词语,并为每个词语赋予其对应的语法属性。

本文将基于深度学习方法对中文分词和词性标注进行研究。

一、深度学习方法介绍深度学习是一种基于神经网络的机器学习方法,在自然语言处理领域中应用广泛。

经典的深度学习模型包括卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)、长短时记忆网络(LongShort-Term Memory, LSTM)和门控循环单元(Gated Recurrent Unit, GRU)等。

在对中文分词和词性标注任务的研究中,CNN、RNN以及LSTM均被采用。

CNN主要用于序列标注任务中的特征提取,RNN及LSTM则用于序列建模任务中。

GRU是LSTM的一种简化版本,在应对大规模文本序列的过程中更为高效。

二、中文分词中文分词是将一段连续的汉字序列切分成有意义的词语。

传统的中文分词方法主要包括基于词典匹配的分词和基于统计模型的分词。

基于词典匹配的分词方法基于预先构建的词典,将待切分文本与词典进行匹配。

该方法精度较高,但需要较为完整的词典。

基于统计模型的分词方法则通过学习汉字之间的概率关系来进行分词。

该方法不依赖于完整的词典,但存在歧义问题。

深度学习方法在中文分词任务中也有较好的表现,通常采用基于序列标注的方法。

具体步骤如下:1. 以汉字为单位对输入文本进行编码;2. 使用深度学习模型进行序列标注,即对每个汉字进行标注,标记为B(词的开头)、M(词的中间)或E(词的结尾),以及S(单字成词);3. 将标注后的序列按照词语切分。

其中,深度学习模型可以采用CNN、RNN、LSTM或GRU等模型。

三、中文词性标注中文词性标注是为每个词语赋予其对应的语法属性,通常使用含有标注数据的语料库进行训练。

中文分词相关技术简介

中文分词相关技术简介

中文分词相关技术简介目前对汉语分词方法的研究主要有三个方面:基于规则的分词方法、基于统计的分词方法和基于理解的分词方法。

基于规则的分词方法基于规则的分词方法,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与一个"充分大的"机器词典中的词条进行匹配,若在词典中找到某个字符串,则匹配成功(识别出一个词)。

常用的方法:最小匹配算法(Minimum Matching),正向(逆向)最大匹配法(Maximum Matching),逐字匹配算法,神经网络法、联想一回溯法,基于N-最短路径分词算法,以及可以相互组合,例如,可以将正向最大匹配方法和逆向最大匹配方法结合起来构成双向匹配法等。

目前机械式分词占主流地位的是正向最大匹配法和逆向最大匹配法。

◆最小匹配算法在所有的分词算法中,最早研究的是最小匹配算法(Minimum Matching),该算法从待比较字符串左边开始比较,先取前两个字符组成的字段与词典中的词进行比较,如果词典中有该词,则分出此词,继续从第三个字符开始取两个字符组成的字段进行比较,如果没有匹配到,则取前3个字符串组成的字段进行比较,依次类推,直到取的字符串的长度等于预先设定的阈值,如果还没有匹配成功,则从待处理字串的第二个字符开始比较,如此循环。

例如,"如果还没有匹配成功",取出左边两个字组成的字段与词典进行比较,分出"如果";再从"还"开始,取"还没",字典中没有此词,继续取"还没有",依次取到字段"还没有匹配"(假设阈值为5),然后从"没"开始,取"没有",如此循环直到字符串末尾为止。

这种方法的优点是速度快,但是准确率却不是很高,比如待处理字符串为"中华人民共和国",此匹配算法分出的结果为:中华、人民、共和国,因此该方法基本上已经不被采用。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

分词算法一般有三类:基于字符串匹配、基于语义分析、基于统计。

复杂的分词程序会将各种算法结合起来以便提高准确率。

Lucene被很多公司用来提供站内搜索,但是Lucene本身并没有支持中文分词的组件,只是在Sandbox里面有两个组件支持中文分词:ChineseAnalyzer和CJKAnalyzer。

ChineseAnalyzer 采取一个字符一个字符切分的方法,例如"我想去北京天安门广场"用ChineseAnalyzer分词后结果为:我#想#去#北#京#天#安#门#广#场。

CJKAnalyzer 则是二元分词法,即将相邻的两个字当成一个词,同样前面那句用CJKAnalyzer 分词之后结果为:我想#想去#去北#北京#京天#天安#安门#门广#广场。

这两种分词方法都不支持中文和英文及数字混合的文本分词,例如:IBM T60HKU现在只要11000元就可以买到。

用上述两种分词方法建立索引,不管是搜索IBM还是11000都是没办法搜索到的。

另外,假如我们使用"服务器"作为关键字进行搜索时,只要文档包含"服务"和"器"就会出现在搜索结果中,但这显然是错误的。

因此,ChineseAnalyzer和CJKAnalyzer虽然能够简单实现中文的分词,但是在应用中仍然会感觉到诸多不便。

基于字符串匹配的分词算法用得很多的是正向最大匹配和逆向最大匹配。

其实这两种算法是大同小异的,只不过扫描的方向不同而已,但是逆向匹配的准确率会稍微高一些。

"我想去北京天安门广场"这句使用最大正向分词匹配分词结果:我#想去#北京#天安门广场。

这样分显然比ChineseAnalyzer和CJKAnalyzer来得准确,但是正向最大匹配是基于词典的,因此不同的词典对分词结果影响很大,比如有的词典里面会认为"北京天安门"是一个词,那么上面那句的分词结果则是:我#想去#北京天安门#广场。

如果用"广场"作为关键字进行检索,那么使用后一个词典分出来的便可检索到,而使用前一个的则不行,而事实上应该是不管搜索北京天安门、天安门广场、天安门、广场都能检索到这篇文档。

使用全切分可以实现这个想法,同样是那句使用正向全切分分词结果为:我#想去#北京天安门#北京#天安门#天安门广场#广场,这样不管用"北京天安门"、"天安门广场"、"天安门"、"广场"中的哪一个作为关键字搜索都可以搜索到。

采取这种分法会在一定程度上提高分词的准确率,但也会出现问题,例如"我要在上海南站上车"这句采用正向全切分结果为:我#要在#上海#海南#南站,分出海南这个词显然是错误的,这属于交叉歧义。

正如前面所说,基于字符串匹配的分词算法都是依赖于词典的,但是不管再怎么大的词典也未必能完全收录所有词汇,况且不断的有新词出现,还有就是人名的识别,因此分词程序如果能够识别出一些词典中所没有的新词的话,有助于提高分词的准确率。

最简单的识别新词的方法可以基于统计,一般来说如果两个字不断重复的出现在一起那么他们组成一个词的频率就比较大。

基于单字共现的统计方法计算两个汉字A和B(也可能是三个或更多)的相邻共现概率,当这种概率值大于一定的阀值时,我们就认为这两个字可以组词。

经常被用来做新词识别的统计理论有:N - 元模型、后缀数组等。

在《“全文检索(full-text search)”和“搜索引擎(search engine)”的区别和联系》中我们提及到了中文分词,以及《双数组Trie(Double Array Trie)实现原理的一点剖析》中阐述了高效率中文分词的实现。

接下来让我们抛开双数组Trie的那些公式,从概念上来了解一下分词技术,因为英文分词相对比较简单,这里主要来了解的是中文分词。

英文是以词为单位的,词与词之间上靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。

例如,英文句子I am a student,翻译成“我是一个学生”。

计算机可以很简单的通过空格知道student是一个单词,但是“学”,“生”假如分开来,计算机是无法理解的。

必须把他们合在一起才变得有意义。

把中文的汉字序列切分成有意义的词,就是中文分词。

再比如“研究生命”,可以划分为“研究生/命”,也可以是“研究/生命”,假如是人脑可以很明显的判断出这里后者的划分更加的确切,但是计算机要做到这一点却是相当的困难。

现有的分词算法有3种:基于字符串匹配的分词算法、基于理解的分词算法和基于统计的分词算法。

何为分词?中文分词与其他的分词又有什么不同呢?分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。

在上面的例子中我们就可以看出,在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段可以通过明显的分界符来简单划界,唯独词没有一个形式上的分界符,虽然英文也同样存在短语的划分问题,但是在词这一层上,上面的例子中我们也可以看出,中文比之英文要复杂的多、困难的多。

要想说清楚中文分词的意义和作用,就要提到智能计算技术。

智能计算技术涉及的学科包括物理学、数学、计算机科学、电子机械、通讯、生理学、进化理论和心理学等等。

简单的说,智能计算就是让机器“能看会想,能听会讲”,让计算机像人类一样可以快速判断出“研究生命”这样短语的切分。

要想实现这样的一个目标,首先就要让机器理解人类的语言,只有机器理解了人类的语言文字,才使得人与机器的交流成为可能。

再反观我们人类的语言中,“词是最小的能够独立活动的有意义的语言成分”,所以对于中文来讲,将词确定下来是理解自然语言的第一步,只有跨越了这一步,中文才能象英文那样过渡到短语划分、概念抽取以及主题分析,以至于自然语言理解,最终达到智能计算的最高境界,实现人类的梦想。

目前我们常用的Google,Baidu,Yahoo这些主流的搜索引擎,还都是基于关键字(Keyword)来匹配结果的,不过可喜的是,已经有很多公司投入了大量的资金进行着自然语言检索的方式来进行查询,随着研究的进行,计算机可以理解人类的语言从而实现真正意义上的人机对话,那也将不再是遥不可及的而变得指日可待了。

从现阶段的实际情况来看,英文已经跨越了分词这一步,也就是说在词的利用上已经先我们一步,并且已经展现了良好的应用前景,无论是信息检索还是主题分析的研究都要强于中文,究其根本原因就是中文要通过分词这道难关,只有攻破了这道难关,我们才有希望赶上并超过英文在信息领域的发展,所以中文分词对我们来说意义重大,可以说直接影响到使用中文的每一个人的方方面面。

中文分词主要应用于信息检索、人机交互、信息提取、文本挖掘、中外文对译、中文校对、自动摘要、自动分类等很多方面。

下面就以信息检索为例来说明中文分词的应用。

通过近几年的发展,互联网已经离我们不再遥远。

互联网上的信息也在急剧膨胀,在这海量的信息中,各类信息混杂在一起,要想充分利用这些信息资源就要对它们进行整理,如果由人来做这项工作,已经是不可能的,而如果面对中文信息不采用分词技术,那么整理的结果就过于粗糙,而导致资源的不可用,例如一个我们常见的比较经典的例子:“制造业和服务业是两个不同的行业”和“我们出口日本的和服比去年有所增长”中都有“和服”,而被当作同一类来处理,结果是检索“和服”的相关信息,会将他们都检索到,在信息量少的情况下,似乎还能够忍受,如果是海量信息,这样的结果就会令人讨厌了。

通过引入分词技术,就可以使机器对海量信息的整理更准确更合理,在“制造业和服务业是两个不同的行业”中“和服”不会被当做一个词来处理,那么检索“和服”当然不会将它检索到,使得检索结果更准确,效率也会大幅度的提高。

所以中文分词的应用会改善我们的生活,使人们真正体会到科技为我所用。

目前对分词的研究,大都集中于通用的分词算法,以提高分词准确率为目的。

目前的分词算法中,一些切分精度比较高的算法,切分的速度都比较慢;而一些切分速度快的算法,因为抛弃了一些繁琐的语言处理,所以切分精度都不高。

速度:每秒几十k~几M切分正确率:80%~98%中文分词(Chinese Word Segmentation):将一个汉字序列切分成一个一个单独的词。

比如将“一次性交足100元”切分成“一次/性交/足/100/元”的话,那这样比较“色”的分词并不是我们所希望的。

另外还有就是未登录词识别,比如“施瓦辛格”这个词字典中并没有,如何才能让计算机正确的识别出这是一个词,当然这并不是中文分词所独有的难点,英文等其他语言也都有这样的问题。

分词规范:词的概念和不同应用的切分要求分词算法:歧义消除和未登录词识别分词规范方面的困难汉语中词的界定,也就是消除歧义“长春市长”:“长春/市长”?“长春市/长”?“长春/市/长” ?核心词表如何收词?词的变形结构问题:“看/没/看见” ,“相不相信”分词算法上的困难切分歧义的消除交集型歧义(交叉歧义):“组合成”我们/小组/合成/氢气了;组合/成/分子;–组合型歧义(覆盖歧义):“马上”他/从/马/上/下/来;我/马上/就/来/了;“学生会组织义演活动” : “学生/会/组织/义演/活动” or “学生会/组织/义演/活动”?未登录词识别命名实体:数词、人名、地名、机构名、译名、时间、货币缩略语和术语:“超女”、“非典”新词:“酱紫”、“星盘”先识别已知词还是先识别未登录词先识别已知词:“内塔尼亚/胡说”先识别未登录词:“胜利取决/于勇/气”常用评测指标召回率(Recall)准确率(Precision)基于词典和规则的方法最大匹配正向最大匹配、反向最大匹配和双向最大匹配实现简单,而且切分速度快。

但无法发现覆盖歧义,对于某些复杂的交叉歧义也会遗漏。

实际试验的结果表明,反向最大匹配的准确率要高于正向最大匹配。

全切分利用词典匹配,获得一个句子所有可能的切分结果。

时空开销非常大。

基于理解的分词算法模拟人的理解过程,在分词过程中加入句法和语义分析来处理歧义问题。

难以将各种语言信息组织成机器可直接读取的形式,还处在试验阶段基于规则的消歧和未登录词识别这一步其实在语根处理(stemming)中也可以处理,比如Snowball就是一个不错的过滤器,但是可惜的是目前的版本出错率比较高。

–规则消歧CONDITION FIND(R,NEXT,X){%at=~w}SELECT 1CONDITION FIND(L,NEAR,X){%X.yx=听|相信|同意}SELECT 1CONDITION FIND(L,NEAR,X){%X.yx=假如|如果|假设|要是|若}SELECT 2 OTHERWISE SELECT 1–用规则识别未登录词LocationName à Person Name LocationNameKeyWordLocationName à Location Name LocationNameKeyWordOrganizationName à Organization Name OrganizationNameKeyWordOrganizationName à Country Name {D|DD} OrganizationNameKeyWord●N元语法(N-gram)模型隐马尔可夫模型(HMM)对于一个随机事件,有一个状态序列{X1X2,…,Xn},还有一个观察值序列{Y1Y2,…,Yn}。

相关文档
最新文档