中文分词

合集下载

中文分词错误纠正算法与优化

中文分词错误纠正算法与优化

中文分词错误纠正算法与优化中文分词是自然语言处理中的重要任务之一,它将连续的中文文本切分成有意义的词语,为后续的文本处理和语义分析提供基础。

然而,由于中文的特殊性,分词中经常出现错误,如歧义词的切分、未登录词的处理等。

因此,研究中文分词错误纠正算法与优化成为了一个热门的研究方向。

一、中文分词错误的原因分析中文分词错误主要源于以下几个方面:1. 歧义词切分:中文中存在大量的歧义词,即同一组汉字可以有多种不同的切分方式,例如“北京大学生喝进口红酒”。

正确的切分应该是“北京/大学生/喝/进口/红酒”,而错误的切分可能是“北京/大学/生/喝/进口/红酒”。

2. 未登录词处理:未登录词是指分词词典中没有收录的新词或专有名词。

由于中文的词汇量庞大且不断更新,分词词典无法及时收录所有的新词,因此会出现未登录词的情况。

例如,“微信红包”在分词词典中可能无法找到对应的切分规则。

3. 语料库不完备:中文分词算法通常依赖于大规模的语料库进行训练和模型构建。

然而,由于语料库的不完备性,某些特殊领域或方言的词语可能无法被准确地切分。

二、中文分词错误纠正算法为了解决中文分词中的错误问题,研究者们提出了一系列的算法和方法:1. 基于规则的方法:基于规则的方法通过事先定义一系列的切分规则来进行分词,例如最大匹配法和最短路径法。

这些方法简单易懂,但对于歧义词和未登录词的处理效果较差。

2. 基于统计的方法:基于统计的方法通过统计语料库中的词频和词组频率来进行分词。

这些方法可以较好地处理歧义词和未登录词,但对于语料库不完备的情况下会有一定的限制。

3. 基于机器学习的方法:基于机器学习的方法通过建立分类器或序列标注模型来进行分词。

这些方法可以通过训练大规模的语料库来提高分词的准确性和泛化能力,但需要较多的训练数据和计算资源。

三、中文分词错误纠正的优化除了算法层面的优化,还可以从以下几个方面对中文分词错误进行优化:1. 词典的更新:及时更新分词词典,收录新词和专有名词,以提高分词的准确性。

中文分词

中文分词

P(W1) > P(W2)
提高计算效率 如何尽快找到概率最大的词串(路径)?
到达候选词wi 时的累计概率
P' ( wi ) P' ( wi 1 ) P( wi )
P' (意见) P' (有) P(意见)
公式1
P' (有) P(有)
提高计算效率(续)

左邻词
假定对字串从左到右进行扫描,可以得到 w1, w2 , … , wi 1 , wi , … 等若干候选词,如果 wi 1 的尾字 跟 wi 的首字邻接,就称 wi 1为 wi 的左邻词。比如上面例 中,候选词“有”就是候选词“意见”的左邻词,“意见” 和“见”都是“分歧”的左邻词。字串最左边的词没有左邻 词。
歧义词表 … 才能 个人 家人 马上 研究所 …
最大匹配法解决分词歧义的能力(续)
对于某些交集型歧义,可以通过增加回溯机制来改 进最大匹配法的分词结果。 例如:“学历史知识” 顺向扫描的结果是:“学历/ 史/ 知识/”, 通过查词典知道“史”不在词典中,于是进行回溯, 将“学历”的尾字“历”取出与后面的“史”组成 “历史”,再查词典,看“学”,“历史”是否在 词典中,如果在,就将分词结果调整为:“学/ 历 史/ 知识/”
最大概率法分词
词语 … 有 有意 意见 见 分歧 … 概率 … 0.0180 0.0005 0.0010 0.0002 0.0001 … P(W1) = P(有) * P(意见) * P(分歧) = 1.8 × 10-9 P(W2) = P(有意) * P(见) * P(分歧) = 1×10-11
有意/
有/
见/
意见/
分歧/
分歧/ B.“结合成分子时” (正向最大匹配和逆向最大匹配结果相同) 结合/ 成分/ 子时/

中文分词简介

中文分词简介

FMM 算法过程: (1) 令 令 i=0 , 当前指针 p i 指向输入字串的初始位置,执行下面的操作: (2) 计算当前指针 p i 到字串末端的字数(即未被切分字串的长度)n , 如果n=1 ,转 (4) ,结束算法。否则,令 m= 词典中最长单词的字数,如果n<m, 令 令 m=n (3) 从当前 p i 起取m 个汉字作为词 w i , 判断: (a) 如果 w i 确实是词典中的词,则在w i 后添加一个切分标志,转(c) ; (b) 如果 w i 不是词典中的词且 w i 的长度大于1 ,将 w i 从右端去掉一个字,转(a) 步;否则(w i 的长 度等于1 ),则在w i 后添加一个切分标志,将w i 作为单字词添加到词典中,执行 (c) 步; (c) 根据 w i 的长度修改指针 p i 的位置,如果 p i 指向 字串末端,转(4) ,否则, i=i+1 ,返回 (2) ; (4) 输出切分结果,结束分词程序。
研究 意义
中文分词是计算机处理汉字的首要 也是基础性工作,只有不断提高中文分 词算法的效率才能跟上信息爆炸增长的 现状,使我国信息技术相关方面在 21 世 纪能够稳步发展。
Part 3
中文分词的主要问题
难点一
分词规范问题
难点二
歧义切分问题
难点三
未登录词问题
分词规范问题
“词”这个概念一直是汉语语言学界纠缠不清而又挥之不去的问题。“词是 什么”(词的抽象定义)及“什么是词”(词的具体界定),这两个基本问题有 点飘忽不定,迄今拿不出一个公认的、具有权威性的词表来。 主要困难出自两个方面:一方面是单字词与词素之间的划界,另一方面是词 与短语(词组)的划界。此外,对于汉语“词”的认识,普通说话人的语感与语 言学家的标准也有较大的差异。有关专家的调查表明,在母语为汉语的被试者之 间,对汉语文本中出现的词语的认同率只有大约70%,从计算的严格意义上说, 自动分词是一个没有明确定义的问题。 建立公平公开的自动分词评测标准一直在路上。

中文分词原理

中文分词原理

中文分词原理中文分词是指将一个汉字序列切分成一个个具有语言意义的词语的过程,是中文信息处理的基础工作之一。

在计算机领域中,中文分词是自然语言处理的重要环节,对于搜索引擎、信息检索、文本挖掘等应用具有重要意义。

本文将介绍中文分词的原理及相关内容。

首先,中文分词的原理是基于词语的语言学特征来进行切分。

中文词语之间并没有像英文那样的明显分隔符号,因此要进行中文分词就需要依靠词语的语言学特征来进行判断。

中文词语通常由一个或多个汉字组成,而且词语之间具有一定的语义关联,因此可以通过词语的语言学特征来进行切分。

其次,中文分词的原理还涉及到词语的频率统计和语境分析。

在进行中文分词时,需要利用大量的语料库来进行词语的频率统计,以确定词语的常见组合和概率。

同时,还需要进行语境分析,即根据词语在句子或文章中的上下文来确定词语的边界,以保证切分结果的准确性。

另外,中文分词的原理还包括了一些特定的算法和模型。

目前常用的中文分词算法包括基于词典的最大匹配法、逆向最大匹配法、双向最大匹配法等。

此外,还有基于统计模型的中文分词方法,如隐马尔可夫模型(HMM)、条件随机场(CRF)等。

这些算法和模型都是基于中文词语的语言学特征和频率统计来进行切分的。

总的来说,中文分词的原理是基于词语的语言学特征、频率统计和语境分析来进行切分的。

通过对词语的特征和语境进行分析,结合相应的算法和模型,可以实现对中文文本的准确切分。

中文分词的准确性对于中文信息处理具有重要意义,因此对于中文分词原理的深入理解和研究具有重要意义。

总结一下,中文分词原理是基于词语的语言学特征、频率统计和语境分析来进行切分的,通过相应的算法和模型实现对中文文本的准确切分。

中文分词对于中文信息处理具有重要意义,对其原理的深入理解和研究对于提高中文信息处理的效率和准确性具有重要意义。

中文分词的原理

中文分词的原理

中文分词的原理
中文分词是自然语言处理中的一个重要任务,其主要目的是将连续的中文文本划分成有意义的词语序列。

与英文不同,中文中的词语之间没有明显的间隔符号,因此,中文分词是一个相对复杂的问题。

中文分词的原理可以简单概括为基于词典的匹配和基于统计的方法。

基于词典的匹配是指通过一个词典来判断一个文本中的词语是否存在。

词典中包含了大量的中文词语,每个词语都有一个对应的词典项。

在分词过程中,系统会逐个扫描文本,并从词典中查找匹配项。

如果找到了匹配项,那么将这个词语划分出来;如果没有找到匹配项,那么就需要进行其他的处理方式。

基于词典的匹配方法可以保证分词的准确性,但是其覆盖范围有限,无法完全覆盖所有的词语。

基于统计的方法则是通过建立一个模型来预测一个文本中哪些位置可能是词语的分界点。

这个模型是通过大量的语料库训练得到的,其中包含了许多已经切好词的文本。

在分词过程中,系统会利用这个模型计算每个位置的分词概率,并选择概率最大的位置作为分界点。

基于统计的方法可以扩大分词的覆盖范围,但是可能会导致一些错误的切分结果。

在实际应用中,中文分词通常会将基于词典的匹配方法和基于统计的方法结合起来。

首先,通过基于词典的匹配方法,划分出词典中包含的词语;然后,利用基于统计的方法,对剩余的文本进行分词。

这种结合的方法可以兼顾准确性和覆盖范围,提高中文分词的效果。

总之,中文分词是中文自然语言处理中的重要任务。

它的原理包括基于词典的匹配和基于统计的方法。

通过合理地结合这两种方法,可以提高中文分词的准确性和覆盖范围,从而更好地满足人们对中文文本处理的需求。

中文bpe分词

中文bpe分词

中文bpe分词
(最新版)
目录
1.中文分词的重要性
2.BPE 分词方法的概述
3.BPE 分词的具体操作步骤
4.BPE 分词的优势与不足
5.应用实例与未来发展
正文
一、中文分词的重要性
中文文本与英文等拉丁字母文字不同,没有明确的词语边界,这给文本处理带来了诸多困难。

中文分词就是指将连续的文本切分成有意义的独立词汇的过程,它在自然语言处理、信息检索、机器翻译等领域具有重要的应用价值。

二、BPE 分词方法的概述
BPE(Backward Prefix-suffix)分词方法是一种基于字典的分词方法,其核心思想是基于前缀和后缀构建有向无环图(DAG),并通过最短路径算法求解最优分词结果。

相较于传统的基于词典的分词方法,BPE 分词具有更强的适应性和通用性。

三、BPE 分词的具体操作步骤
1.构建字典:首先需要构建一个包含所有可能的前缀和后缀的字典。

2.构建有向无环图:根据字典中的前缀和后缀,构建一个有向无环图。

3.求解最短路径:采用最短路径算法(如 Dijkstra 算法)在有向无环图中求解最优分词结果。

4.得到分词结果:根据最短路径算法的结果,得到最终的分词结果。

四、BPE 分词的优势与不足
1.优势:BPE 分词方法具有较强的适应性和通用性,可以应对不同领域和风格的文本,且分词效果较好。

2.不足:BPE 分词方法的计算复杂度较高,对计算资源有一定要求;此外,由于其基于字典构建,对于新词的识别能力较弱。

五、应用实例与未来发展
BPE 分词方法在许多自然语言处理任务中都取得了良好的效果,例如文本分类、情感分析、机器翻译等。

自然语言处理中的中文分词工具推荐

自然语言处理中的中文分词工具推荐

自然语言处理中的中文分词工具推荐在自然语言处理(Natural Language Processing,NLP)领域中,中文分词是一个重要的任务,它将连续的中文文本切分成有意义的词语序列。

中文分词对于机器翻译、信息检索、文本分类等应用具有重要意义。

然而,中文的复杂性和歧义性使得中文分词成为一个具有挑战性的任务。

为了解决这个问题,许多中文分词工具被开发出来。

本文将推荐一些常用的中文分词工具,并对它们的特点进行简要介绍。

1. 结巴分词(jieba)结巴分词是目前最流行的中文分词工具之一。

它基于基于前缀词典和HMM模型的分词算法,具有高效、准确的特点。

结巴分词支持三种分词模式:精确模式、全模式和搜索引擎模式,可以根据具体需求选择不同的模式。

此外,结巴分词还提供了用户自定义词典的功能,可以根据特定领域的需求进行词汇扩充。

2. LTP分词(Language Technology Platform)LTP分词是由哈尔滨工业大学自然语言处理与社会人文计算实验室开发的中文分词工具。

它采用了基于统计的分词算法,具有较高的准确率和鲁棒性。

LTP分词还提供了词性标注、命名实体识别等功能,可以满足更多的自然语言处理需求。

3. THULAC(THU Lexical Analyzer for Chinese)THULAC是由清华大学自然语言处理与社会人文计算研究中心开发的一种中文词法分析工具。

它采用了一种基于词汇和统计的分词算法,具有较高的分词准确率和速度。

THULAC还提供了词性标注和命名实体识别功能,并支持用户自定义词典。

4. Stanford中文分词器Stanford中文分词器是由斯坦福大学自然语言处理小组开发的一种中文分词工具。

它使用了条件随机场(Conditional Random Fields,CRF)模型进行分词,具有较高的准确率和鲁棒性。

Stanford中文分词器还提供了词性标注和命名实体识别功能,可以满足更复杂的NLP任务需求。

汉语分词简介

汉语分词简介
汉语分词 9
主要的分词方法(三)
基于统计的分词方法 :基本原理是根据字符串 在语料库中出现的统计频率来决定其是否构成 词 无词典分词法也有一定的局限性, 会经常抽出 一些共现频度高、但并不是词的常用字符串, , 如“这一”、“之一”以及“提供了”等等。 在实际应用的统计分词系统中都要使用一部基 本的分词词典(常用词词典)进行串匹配分词, 即将字符串的词频统计和字符串匹配结合起来, 既发挥匹配分词切分速度快、效率高的特点, 又利用了无词典分词结合上下文识别生词、自 动消除歧义的优点。
汉语分词 17
结束语
从上面的分析来看,随着中文分词技术研究的 不断深入,单独利用规则的方法会由于规则获 取的限制,将越来越不能满足逐渐加快的信息 的产生速度和识别速度的需求。而单独利用统 计的方法,由于不能很好的表现词语内部的结 构特征和最多的融合语言学信息,也将不能达 到最好的效果。因此,在中文分词系统方面, 各种分词方法相结合的技术模式将会成为主流, 利用语言学家研究的成果以及更好的统计模型, 将各种信息融合起来,达到最好的识别效果是 我们的目标。
汉语分词
3
主要的分词方法(一)
基于字符串匹配的分词方法:按照一定的策略将待分 析的汉字串与一个“充分大的”机器词典中的词条进 行配,若在词典中找到某个字符串,则匹配成功 。可 以切分, 否则不予切分。 实现简单, 实用性强, 但机械分词法的最大的缺点就是 词典的完备性不能得到保证。 a. 正向最大匹配(由左到右的方向) b. 逆向最大匹配法(由右到左的方向) c. 最少切分(使每一句中切出的词数最小) d. 双向匹配法(进行由左到右、由右到左两次扫描)
汉语分词 5
分析
“市场/中国/有/企业/才能/发展/” 对交叉歧义和组合歧义没有什么好的解 决办法 错误切分率为1/169 往往不单独使用,而是与其它方法配合 使用
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Class-based Ngram Ngram分词评价
能够处理大多数常用词带来的歧义问题 不能处理新词以及新词带来的歧义问题
解决之道:Class-based Ngram
在统一的框架下进行分词与新词识别 将词分为若干类
词典词:教师(词典处理) 仿词:2000年(规则处理) 新词:范路(基于类的新词识别) 形态词:高高兴兴(规则处理) 不同类型的词用不同处理方法,最后利用Ngram框架寻找全 局最优切分结果
P(C ) ≅ ∏P(ci | ci−2ci−1)
m 1 i=1
m
P (S1n | C1m ) = P (s1, s2 ,⋅ ⋅ ⋅, sn | c1, c2 ,⋅ ⋅ ⋅, cm ) ≅ P ([s1,⋅ ⋅ ⋅, sc1−end],⋅ ⋅ ⋅,[scm−start,⋅ ⋅ ⋅, sn ] | c1, c2 ,⋅ ⋅ ⋅, cm ) ≅ ∏ P ([scj −start,⋅ ⋅ ⋅, scj −end] | c j )
中文分词一席谈
suntian@
内容提要
中文分词概述 分词技术发展 国际分词评测 分词技术总结
中文分词概述
什么是分词? 什么是分词?
分词就是利用计算机识别出文本中词汇的过程。比如 句子“内塔尼亚胡说的确实在理”
中文分词概述(Cont.)
分词作用
互联网绝大多数应用都需要分词,典型应用实例 汉字处理:拼音 汉字处理:拼音输入法、手写识别、简繁转换 …告推荐、内容监控 … 语音处理: 语音处理:语音识别、语音合成 … …
w w
P (W | O ) = max ∏ P ( wt | wt −1 , ot )
w t =1
T
W:分词结果 O:待分词文本
生成式分词(Cont.)
句子 分词 词典
学习 素材
产生式 学习算法
分词 知识库
产生式 切分算法
切分 结果
生成式分词(Cont.)
分词过程实例
第一步:全切分
生成式分词(Cont.)
中文分词概述(Cont.)
分词难点 歧义无处不在
交叉歧义(多种切分交织在一起)
内塔内亚胡说的/确实/在理
组合歧义(不同情况下切分不同)
这个人/手上有痣 我们公司人手
真歧义(几种切分都可以)
乒乓球拍/卖/完了 乒乓球/拍卖/完了 /拍卖/
中文分词概述(Cont.)
分词难点 新词层出不穷
人名、地名、机构名
优势
能充分利用各种来源的知识 需要较少的训练语料 解码速度更快 新词识别性能好
判别式分词(Cont.)
由字构词
把分词问题转化为确定句中每个字在词中位置问题 每个字在词中可能的位置可以分为以下三种
词首B(日本
占领 了 东三省) 词中M(游泳 比赛 菲尔普斯 独占鳌头) 词尾E(中国队 抢占 了 风头)
生成式分词
原理
首先建立学习样本的生成模型,再利用模型对预测结 果进行间接推理 两个假设前提
马尔可夫假设 • 当前状态出现的概率仅同过去有限的历史状态有关,而与 其他状态无关。具体到分词任务,就是文本中第i个词出 现的概率仅仅依赖于它前面的i-1个词,而与其他词无关。 输出独立性假设 • 当前状态的输出仅仅取决于当前状态本身,而与其他状态 无关。
j =1 N
( (
( j)
|o
( j)
))
λ2 −∑ 2 k 2σ
k
其中,后一项为高斯先验因子,起到数据平滑的作用,
奥巴马 长坂坡 耀华路
网名
你是我的谁 旺仔小馒头
公司名、产品名
摩托罗拉 谷歌 爱国者 腾讯 网易 诺基亚C5 尼康D700 新浪
中文分词概述(Cont.)
分词难点 普通词与新词互用
高明表演真好(演员)/他的表演很高明 汪洋到深圳检查工作/洞庭湖一片汪洋
普通词与新词交织在一起
克林顿对内 对内塔尼亚胡说 对内 胡说 胡锦涛听取龚学平等 平等同志的汇报 平等
判别式分词(Cont.)
特征所涉及的语言学知识列表 字的上下文知识 形态词知识:处理重叠词、离合词、前后缀 仿词知识:2000年 成语/惯用语知识 普通词词典知识 歧义知识 新词知识/用户词典 新词的全局化知识
判别式分词(Cont.)
CRF建模
i i % max Ο (θ ) = max ∑ log pθ y ( ) | x ( ) ∝ ∑ p ( y | x ) log pθ ( y | x ) i =1 x, y N
生成式分词(Cont.)
给定字符串S=s1s2…sn , 找最优的类序列 C=c1c2…cm 使得P(C|S) 最大
P(C | S ) =
m 1 n 1
m n m P(C1 )×P( S1 |C1 ) n P( S1 )
P(C1m | S1n ) = P(C1m ) × P(S1n | C1m)
学习过程 学习类的上下文知识 学习类的生成知识
P(克林顿 | c = FPN ) ≅ P(克 | FPI ) × P(林 | FPM ) × P(顿 | FPE )
生成式分词(Cont.)
学习过程( MLE ) 原始训练语料:刘翔/nr 是 一个 优秀 运动员 转换为训练类的上下文模型语料:PN 是 一个 优秀 运动员 转换为训练类的产生模型语料:F刘 G翔
j=1 m
生成式分词(Cont.)
类别 PN2 (两字人名) PN 人名 PN3(三字人名) FPN (外国人名) 实例 李鹏 江泽民 布什 G2 LN 地名 CLN (中国地名) FLN (外国地名) 北京市 巴黎 外国人的第一个字 FPI 外国人的中间字 FPM 外国人的结尾子 ON 机构名 CON (中国机构名) 东北大学 FPE 外国地名第一个字 FLI FON (外国机构名) 词典词 形态词 仿词 欧佩克 开心 FLE 高高兴兴 2000年 FOI 外国机构名中间字 FOM 外国机构名第一个字 外国地名的第二个字 FLM 外国地名结尾字 标 记 人名中姓 F PN2中字 G PN3 中第一个字 G1 PN3 中第二个字 描述
中文分词概述(Cont.)
分词难点(需要重新处理) 分词难点(需要重新处理)
需求多种多样
切分速度:搜索引擎VS单机版语音合成 结果呈现: 切分粒度要求不同:机器翻译VS搜索引擎 分词重点要求不同:语音合成VS搜索引擎 唯一结果VS多结果:语音合成VS搜索引擎 新词敏感度不同:语音合成VS搜索引擎 处理对象:书面文本(规范/非规范)VS口语文本 硬件平台:嵌入式VS单机版VS服务器版
生成式分词(Cont.)
人名的实体模型
P( S1S 2 | c = PN 2) ≅ P( S1 | F ) × P( S 2 | G )
P(李鹏 | c = PN 2) ≅ P(李 | F ) × P(鹏 | G)
P( S1S 2 S3 | c = PN 3) ≅ P( S1 | F ) × P(S2 | G1 ) × P ( S3 | G2 )
词典从哪里来?
机械分词(Cont.)
全切分:获得文本所有可能的切分结果,得到所 有切分单元
搜索引擎中
机械分词(Cont.)
优点
程序简单易行,开发周期短 没有任何复杂计算,分词速度快
不足
不能处理歧义 不能识别新词 分词精度不能满足实际的需要(规范文本 80%,互联网文本在70% 左右)
统计分词
生成式统计分词 判别式统计分词
第二步:Viterbi动态规划,找到贯穿句子的路径并计算 每条路径的概率
P1=P(说|他)*P (的|说)*P(确实|的)*P(在理|确实)*P($End|在理) P2=P(说|他)*P (的确|说)*P(实在|的确)*P(理|实在)*P($End|理)
第三步:选择概率最大的路径 为切分结果
生成式分词(Cont.)
P (江泽民 | c = PN 3) ≅ P (江 | F ) × P(泽 | G1 ) × P (民 | G2 )
P ( S1 S 2 ⋅ ⋅ ⋅ S n | c = FPN ) ≅ P ( S1 | FPI ) × ∏ P(Si | FPM) × P ( S n | FPE )
i=2 i = n -1
• 不足
需要很大的训练语料 新词识别能力弱 解码速度相对较慢
统计分词
生成式统计分词 判别式统计分词
判别式分词
原理
在有限样本条件下建立对于预测结果的判别函数,直接对预测结果进行判别,建模无需任何假 设。 由字构词的分词理念,将分词问题转化为判别式分类问题
典型算法
Maxent SVM CRF Perceptron
生成式分词(Cont.)
分词过程 第一步:逐字全切分 第二步:根据新词触发知识(姓氏表、地名关 键字、机构名关键字等),触发新词候选绑定 第三步:绑定形态词、仿词 第四步:对所有候选词形成的词网格,进行 Viterbi解码,寻找最优路径
生成式分词(Cont.)
优点
在训练语料规模足够大和覆盖领域足够多的情况下,可以获得较 高的切分正确率(>=95%)
分词结果形式化
分词结果:毛/B新/M年/E2/B0/M0/M0/M年/E毕/B业/E/于/B东/B北 /M大/M学/E 还原:毛新年/2000年/毕业/于/东北大学
判别式分词(Cont.)
句子
学习 素材
判别式 学习算法
分词 知识库
判别式 学习算法
切分 结果
判别式分词(Cont.)
特征选择 设H是预定义条件的集合,T是一组可选标注集, 条件随机场的特征函数定义为:
生成式分词(Cont.)
Naïve N-gram分词模型
学习过程(利用MLE估计) P(wt|wt-1)=(Count(wt,wt-1))/Count(wt-1) 分词过程
相关文档
最新文档