作为人工智能分支的自然语言处理:停滞的技术
自然语言处理技术的现状和发展趋势

自然语言处理技术的现状和发展趋势自然语言处理(natural language processing,NLP)是人工智能领域中的一个重要分支,其目标是使计算机能够理解、处理和生成人类自然语言的文本或语音。
随着人工智能技术的快速发展,NLP技术也得到了极大的发展,并在许多领域得到了广泛的应用,比如自动翻译、情感分析、智能客服、智能搜索等。
本文将就NLP技术的现状和未来发展趋势进行深入探讨。
一、NLP技术的现状近年来,NLP技术取得了巨大的进步,其中最大的推动力来自于深度学习技术的发展。
深度学习作为一种基于人工神经网络的机器学习方法,能够自动地从数据中学习特征,并取得比传统机器学习方法更好的效果。
在NLP领域,深度学习技术被广泛应用于诸如语言模型、命名实体识别、情感分析、机器翻译等任务,取得了显著的效果。
基于深度学习的方法使得NLP技术在许多任务上取得了突破性进展。
比如在语言模型任务上,出现了一系列效果出色的预训练模型,如BERT、GPT、XLNet等,在机器翻译任务上,Transformer模型的出现使得翻译效果得到了极大的提升,在情感分析任务上,使用深度学习方法可以更准确地识别文本中的情感倾向等。
这些进展极大地改善了NLP技术的性能,使得它能够被更广泛地应用到各个领域中。
另一方面,NLP技术也在不断地向着更加智能化的方向发展。
目前,已出现了一些基于深度学习的通用对话系统,如Google的Duplex、OpenAI的GPT-3等,这些对话系统能够比较自然地进行人机对话,并且在一些任务中表现出了非常高的智能水平。
此外,NLP技术还在知识图谱构建、信息检索和推荐系统等领域得到了广泛应用,进一步提高了NLP技术的智能化水平。
二、NLP技术的发展趋势1.深度学习模型的进一步发展目前,深度学习模型已经成为NLP领域的主流方法,未来这一趋势有可能会进一步发展。
随着计算能力的提高和算法的改进,我们可以预见更加复杂和强大的深度学习模型的出现,这些模型可以更好地理解和生成人类语言,从而使得NLP技术得到更大的提升。
人工智能的自然语言处理

人工智能的自然语言处理人工智能(Artificial Intelligence,AI)的发展迅速,其中自然语言处理(Natural Language Processing,NLP)作为人工智能领域的重要应用之一,扮演着不可或缺的角色。
本文将介绍人工智能的自然语言处理技术及其应用,以及对未来的展望。
一、自然语言处理的定义和背景自然语言处理(Natural Language Processing,NLP)是一门结合人工智能和语言学的跨学科技术,旨在使计算机能够理解、解释和生成人类语言。
它涉及诸多技术,包括文本处理、语义分析、语音识别等,为计算机赋予了处理和生成自然语言的能力。
二、自然语言处理的基本原理1. 语言模型语言模型是自然语言处理的基础,旨在为计算机建立一种理解自然语言的方式。
传统的语言模型基于统计概率方法,而近年来深度学习技术的发展使得基于神经网络的语言模型具备了更强大的表达能力。
2. 词法分析词法分析是自然语言处理中的一项重要任务,其目标是将自然语言拆分为基本的语言单位,即词。
常见的词法分析技术包括分词、词性标注等。
3. 句法分析句法分析是自然语言处理中的另一项关键任务,旨在分析句子的语法结构,确定句子中各个词语之间的依赖关系。
句法分析可以帮助计算机理解句子的含义。
4. 语义分析语义分析是将句子的意思以计算机能理解的方式进行表示和分析的任务。
它包括词义消歧、指代消解等技术,能够帮助计算机准确地理解句子的语义。
5. 机器翻译机器翻译是将一种自然语言转换为另一种自然语言的任务,属于自然语言处理的重要应用之一。
近年来,基于神经网络的机器翻译技术取得了巨大的进展,使得机器翻译的质量得到了显著提升。
三、自然语言处理的应用1. 智能助理自然语言处理技术应用于智能助理(如苹果的Siri、亚马逊的Alexa 等),使得用户可以通过语音输入与智能设备进行交互,实现语音识别、语音合成和语义理解等功能。
2. 智能客服自然语言处理技术能够应用于智能客服系统,使得用户能够通过自然语言与机器人进行交流,解决问题并获得准确的答案。
人工智能中的自然语言处理技术发展

人工智能中的自然语言处理技术发展随着科技的发展和普及,人工智能技术应用在各个领域中,其中自然语言处理技术(Natural Language Processing,简称NLP)的应用越来越广泛。
NLP技术是指让计算机能够理解、分析和生成自然语言的过程。
自然语言处理技术的发展始于20世纪50年代,但直到近些年来才逐渐增长起来。
随着语言学、数学和计算机科学等领域的不断交叉融合,NLP技术的应用领域也不断拓展。
目前,人工智能已经成为社会各个领域中的关键技术,特别是在语音识别和自然语言处理方面,其应用和研究已经取得了重要进展。
一、人工智能中的自然语言处理技术自然语言处理技术可以分为两大类:自然语言理解(Natural Language Understanding,简称NLU)和自然语言生成(Natural Language Generation,简称NLG)。
其中,NLU是指将人类语言转换成计算机能够理解的形式,主要包括语言分析、语法识别、句法分析、语义理解等。
而NLG则是将计算机生成的信息转换成易于人类理解的自然语言形式,主要包括语言生成、句子成分的选择、句式变幻等。
目前,人工智能中的自然语言处理技术主要包括以下几个方面:1、语音识别技术语音识别技术是指将人类语言转化为计算机可以识别的口语文字系统的过程。
通过声音输入,计算机可以将我们说出的话语转化成文字信息,从而实现自然语言的输入。
目前,语音识别技术已经被广泛应用于智能家居、智能驾驶、医疗等领域。
2、机器翻译技术机器翻译技术是指将一种自然语言翻译成另一种自然语言的过程。
通过对原文句子的分析和识别,机器翻译可以将其翻译成目标语言,并输出对应的翻译文本。
目前,机器翻译技术已经成为不同语言之间进行交流的重要工具。
3、情感分析技术情感分析技术是指通过计算机算法,对文本中所包含的情感信息进行识别和分析的过程。
情感分析技术可以帮助我们了解用户对某个产品或事件的态度和意见,并根据其反馈意见进行业务决策或产品优化。
深度学习技术的发展历程

深度学习技术的发展历程深度学习,作为人工智能领域的重要分支之一,经历了多年的演化和发展,取得了令人瞩目的成果。
本文将回顾深度学习技术的发展历程,从其起源到现在的应用领域进行探讨,并展望未来的发展趋势。
一、起源和初步发展深度学习技术的起源可以追溯到上世纪50年代的感知器理论。
感知器是一种由人工神经元构成的网络结构,能够模拟人脑的神经元工作原理,通过学习数据集进行模式识别和分类。
然而,由于当时的计算能力和数据规模有限,感知器的应用局限在了简单的问题上。
直到20世纪80年代,深度学习技术由于多层神经网络的提出,再次引起了学术界的关注。
多层神经网络通过增加网络层数,能够更好地表示复杂关系和抽象特征,提高模型的性能。
但由于当时缺乏有效的训练算法和数据集,深度学习技术的发展陷入了停滞。
二、深度学习的突破深度学习技术的突破性发展始于2006年,当时由Hinton等人提出的深度置信网络(DBN)在语音识别任务上取得了重大突破。
DBN引入了预训练和微调的概念,通过逐层无监督训练来解决深层网络难以收敛的问题。
这一方法为深度学习技术的复兴奠定了基石。
紧随其后,2012年,由于Hinton等人提出的深度卷积神经网络(CNN)在ImageNet大规模图像分类竞赛中取得了惊人的结果,深度学习技术再次引起了广泛关注。
CNN通过局部感知野和参数共享的方式,极大地降低了模型的复杂度,提高了图像识别的准确性和鲁棒性。
三、深度学习的应用领域自2012年以来,深度学习技术在各个领域取得了显著的突破,并逐渐应用于实际生产和科研中。
以下是几个典型的应用领域:1. 计算机视觉:深度学习技术在图像识别、物体检测、人脸识别等任务上取得了令人瞩目的成果。
例如,人们可以利用深度学习算法训练一个模型,将图片中的物体和场景进行标注,实现自动化的图像分类与分析。
2. 自然语言处理:深度学习技术在文本分类、情感分析、机器翻译等自然语言处理任务上具有强大的表达能力。
人工智能行业自然语言处理技术应用解决方案

人工智能行业自然语言处理技术应用解决方案第一章引言 (3)1.1 行业背景 (3)1.2 技术概述 (3)1.2.1 语言识别 (3)1.2.2 语言理解 (3)1.2.3 语言 (4)1.2.4 语言评价 (4)1.2.5 应用领域 (4)第二章自然语言处理基础技术 (4)2.1 词向量技术 (4)2.2 语法分析 (4)2.3 语义理解 (5)第三章文本分类与情感分析 (5)3.1 文本预处理 (5)3.1.1 文本清洗 (5)3.1.2 分词 (6)3.1.3 词性标注 (6)3.1.4 词语相似度计算 (6)3.2 文本分类算法 (6)3.2.1 基于统计的文本分类算法 (6)3.2.2 基于深度学习的文本分类算法 (6)3.2.3 基于融合模型的文本分类算法 (6)3.3 情感分析应用 (6)3.3.1 产品评论情感分析 (7)3.3.2 社交媒体情感分析 (7)3.3.3 客服对话情感分析 (7)3.3.4 舆情监测情感分析 (7)第四章命名实体识别与关系抽取 (7)4.1 命名实体识别技术 (7)4.2 关系抽取方法 (7)4.3 应用场景 (8)第五章机器翻译与跨语言处理 (8)5.1 机器翻译技术 (8)5.1.1 技术概述 (9)5.1.2 发展历程 (9)5.1.3 技术要点 (9)5.2 跨语言信息检索 (9)5.2.1 技术概述 (9)5.2.2 发展历程 (9)5.3 跨语言文本分析 (10)5.3.1 技术概述 (10)5.3.2 发展历程 (10)5.3.3 技术要点 (10)第六章对话系统与问答技术 (10)6.1 对话系统设计 (10)6.1.1 设计原则 (10)6.1.2 设计流程 (10)6.2 问答系统实现 (11)6.2.1 问答系统概述 (11)6.2.2 实现方法 (11)6.3 应用案例 (11)第七章信息抽取与知识图谱 (12)7.1 信息抽取方法 (12)7.1.1 基于规则的方法 (12)7.1.2 基于统计的方法 (12)7.1.3 基于深度学习的方法 (12)7.2 知识图谱构建 (12)7.2.1 实体识别 (12)7.2.2 关系抽取 (12)7.2.3 属性抽取 (13)7.2.4 知识融合 (13)7.3 知识图谱应用 (13)7.3.1 搜索引擎优化 (13)7.3.2 问答系统 (13)7.3.3 推荐系统 (13)7.3.4 自然语言处理 (13)7.3.5 智能客服 (13)第八章文本与摘要技术 (13)8.1 文本方法 (13)8.1.1 基于规则的方法 (13)8.1.2 基于模板的方法 (14)8.1.3 基于深度学习的方法 (14)8.2 自动摘要算法 (14)8.2.1 基于关键词的方法 (14)8.2.3 基于深度学习的方法 (14)8.3 应用领域 (14)8.3.1 信息检索 (14)8.3.2 自动问答 (14)8.3.3 文本挖掘 (14)8.3.4 机器翻译 (15)8.3.5 聊天 (15)第九章自然语言处理在垂直行业的应用 (15)9.2 医疗领域 (15)9.3 教育领域 (15)第十章发展趋势与展望 (16)10.1 技术发展趋势 (16)10.2 行业应用前景 (16)10.3 未来挑战与机遇 (17)第一章引言1.1 行业背景互联网、大数据、云计算等技术的快速发展,人工智能(Artificial Intelligence,)逐渐成为全球科技创新的热点领域。
人工智能技术在自然语言处理领域的基本原理和关键技术

人工智能技术在自然语言处理领域的基本原理和关键技术篇一人工智能技术在自然语言处理领域的基本原理和关键技术一、引言自然语言处理(NLP)是人工智能领域的一个重要分支,它涵盖了机器理解和生成人类语言的各种技术。
随着人工智能技术的飞速发展,自然语言处理已经成为了许多应用场景的核心技术,例如智能客服、机器翻译、情感分析、文本摘要等。
本文将详细介绍自然语言处理领域的基本原理和关键技术。
二、基本原理自然语言处理的基础是语言学、计算机科学和人工智能的交叉。
它的主要目标是通过数学和计算的方法来研究和理解人类语言的本质,包括语音、语法、语义和语用等方面。
其核心思想是将人类语言转化为计算机能够理解和处理的形式,如文本字符串或结构化数据。
自然语言处理的基本流程通常包括以下步骤:预处理:对输入的文本进行清洗和标准化,例如去除标点符号、停用词、拼写错误等。
词法分析:将文本分解成单个的词或词条,例如分词、词性标注和命名实体识别等。
句法分析:分析词与词之间的结构关系,例如短语构成、句子结构等。
语义理解:理解文本的含义,例如关键词提取、情感分析、文本分类等。
生成回应:根据理解的结果生成相应的回应,例如聊天机器人、自动摘要等。
三、关键技术词嵌入技术:这是一种将词或短语从词汇表映射到向量的技术。
通过训练语料库,词嵌入能够捕捉到词与词之间的语义关系,从而将词汇表中的词转化为计算机可以处理的向量。
这些向量可以用于比较不同词语之间的相似度或相关性。
深度学习模型:深度学习模型在自然语言处理领域取得了许多突破性的成果。
其中最具代表性的模型包括卷积神经网络(CNN)、循环神经网络(RNN)和变换器(Transformer)。
这些模型可以用于处理序列数据(如文本),并捕捉到数据中的复杂模式和结构。
注意力机制:注意力机制是一种在处理复杂数据时允许模型集中关注于特定部分的技术。
在自然语言处理中,注意力机制可以帮助模型更好地理解输入文本的上下文信息,从而更准确地生成响应。
人工智能的其他支撑技术包括哪些判断题

人工智能的其他支撑技术包括哪些判断题摘要:一、人工智能的概述二、人工智能的支撑技术1.计算机视觉2.自然语言处理3.机器学习4.知识图谱5.语音识别6.云计算和大数据三、人工智能的应用领域1.医疗健康2.教育3.金融4.交通5.智能家居四、人工智能的发展趋势1.技术进步2.产业融合3.政策支持4.社会影响正文:人工智能是一种模拟人类智能的技术,它通过计算机程序实现人类思维、学习、感知、决策等能力。
近年来,人工智能得到了广泛的关注和应用,其支撑技术也不断发展和完善。
一、人工智能的支撑技术1.计算机视觉:计算机视觉是利用计算机对图像和视频进行处理和分析的技术,它是实现人工智能的重要基础之一。
2.自然语言处理:自然语言处理是研究计算机理解和生成自然语言(如中文、英文)的技术,它是实现人工智能的关键技术之一。
3.机器学习:机器学习是人工智能的核心技术之一,它通过让计算机学习数据,提高计算机的智能水平。
4.知识图谱:知识图谱是一种以图谱形式表示知识和实体关系的数据结构,它是实现人工智能的重要基础之一。
5.语音识别:语音识别是利用计算机对语音信号进行处理和分析,实现计算机理解和生成人类语言的技术。
6.云计算和大数据:云计算和大数据是人工智能的重要支撑技术,它们为人工智能提供了数据存储、计算能力和数据源。
二、人工智能的应用领域1.医疗健康:人工智能在医疗健康领域的应用包括辅助诊断、智能手术、医疗影像分析等。
2.教育:人工智能在教育领域的应用包括智能教学、学习分析、教育评估等。
3.金融:人工智能在金融领域的应用包括风险控制、智能投顾、金融反欺诈等。
4.交通:人工智能在交通领域的应用包括自动驾驶、交通规划、智能交通灯控制等。
5.智能家居:人工智能在智能家居领域的应用包括智能安防、智能家居控制、智能语音助手等。
三、人工智能的发展趋势1.技术进步:随着硬件技术、算法研究的不断发展,人工智能技术将不断进步,实现更多人类智能。
自然语言处理属于人工智能的哪个领域

自然语言处理属于人工智能的哪个领域
自然语言处理(Natural Language Processing,NLP)属于人工智能的语言相关领域。
具体地说,自然语言处理是一门涉及计算机与人类自然语言之间交互的学科,旨在使计算机能够理解、解析、生成和处理自然语言。
NLP的目标是使计算机能够像人类一样理解和处理语言,从而实现与人之间的无缝交流。
NLP涉及广泛的语言处理任务,包括但不限于:
1. 语言理解:将自然语言转化为计算机可以理解的形式。
这涉及到词法分析、句法分析、语义分析等技术。
2. 机器翻译:将一种语言自动翻译成另一种语言。
这需要理解源语言的语法结构和词义,并将其转化为目标语言。
3. 信息抽取:从大量的文本数据中自动提取有用的信息,例如实体识别、关系抽取等。
4. 文本分类和情感分析:根据文本的内容将其分类为不同的类别,或者分析文本中表达的情感。
NLP的技术基础包括机器学习、深度学习、语言模型等。
常用的NLP工具和框架包括NLTK、spaCy、BERT等。
在现实世界中,NLP的应用非常广泛。
例如,搜索引擎使用NLP 来理解用户的搜索意图并返回相关的搜索结果;智能助理可以通过语
音识别和语义理解来与用户进行对话;情感分析可以用于社交媒体舆
情监测等。
总之,自然语言处理是人工智能领域中与语言相关的重要研究领域,通过结合语言学和计算机科学的理论和方法,实现计算机与人类之间
的有效交流和理解。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
24
实验1: 统计方法给出的结果
等效于有效知识源的扩大
• 辅助分类器
A
B
C
D
E
F
AS
MSRSeg G
MSRSegNE H
MSRA2005 I
PKU2003 J
PKU2005 K
CTB2006 L
AS
AS2003
AS2005
CityU2003
CityU2005
CityU2006
AS2006
25
实验1: 结果
27
实验1: 谨慎的结论
• 开放测试问题是否可以转换为一个单一的 可供集成的语言资源的扩大。
– 我们部分做到了这一点!
• 机器学习模型的贡献有限。
28
实验2: 评估语料规模对性能的影响
• 如果
– 语料规模是唯一影响性能的因素,
• 那么
– 对于一个特定的性能度量要多大规模的语料来 学习?
29
实验2: 数据划分
• 我们的建议。
2
内容
• 自然语言处理中的机器学习技术的兴起 • 被忽略的准则
– 没有免费的午餐 – 丑小鸭 – Zipf律
• 困境的实例
– 学习性能增长根本来源是语料增长 – 指数增长的语料带来线形的性能提升
• 结语
3
机器学习的兴起 现代方法
• 最大熵用于词性标注
– Adwait Ratnaparkhi, Jeffrey C. Reynar, Salim Roukos. A Maximum Entropy Model for Prepositional Phrase Attachment. HLT 1994
4
机器学习方法的兴起 中文处理
• Bakeoff-1: 2003
– 分词
• Bakeoff-2: 2005
– 分词,统一的机器学习方法
• Bakeoff-3: 2006
– 分词,命名实体识别
• Bakeoff-4: 2007,2008
– 分词,命名实体识别,词性标注
5
为什么要机器学习
• 样本比规则好定义 • 规则会忽略低频情形 • 语言的解释涉及的因素过多
– Fernando Pereira – Machine Learning in Natural Language Processing – University of Pennsylvania – NASSLLI, June 2002
6
为什么要机器学习
• 机器学习降低了知识表示的难度!
7
机器学习方法的特征
• 机器翻译
– Franz Josef Och, Hermann Ney. Discriminative Training and Maximum Entropy Models for Statistical Machine Translation. In ACL 2002: Proc. of the 40th Annual Meeting of the Association for Computational Linguistics (best paper award), pp. 295-302, Philadelphia, PA, July 2002.
13
算法的人工倾向
• 任何学习算法都需要一些“倾向性”,用 来区分可能的结果。 • 回到知识源的观点
– 学习模型的三要素
• 目标函数:知识源 • 特征体系:部分的知识源 • 参数估计算法:与知识源基本无关
14
不拒绝个别优化
• 机器学习的最优是依赖于案例特性的!
• 算法可能特别适应于某个特定任务 • 存在一般的优越算法吗?
– 可将其归结为一种知识获得和学习分离的智能系统处理方法。
• 忽略了基本的机器学习原则而导致低效的知识处理 • 两个关联但是有区别的困境
– 单一的数据挖掘方式的自然语言处理未能从根本上改变知识表示和知识 获取的人工智能困难。 – 以监督学习为代表的统计机器学习方法并不能带来真正的实用化的推广 性能增长。
23
数据
Bakeoff-2006 Training(M) Test(K) AS 8.44 146.3 CityU 2.71 364.5 CTB 0.83 256.5 MSRA 2.17 172.6
•方法 • 字标注学习方法 CRFs • 前向最大匹配算法 •参考文献 •Hai Zhao, Yan Song and Chunyu Kit, How Large a Corpus do We Need: Statistical Method vs. Rule-based Method, LREC-2010
– Watanabe, Satosi (1969). Knowing and Guessing: A Quantitative Study of Inference and Information. New York: Wiley. pp. 376–377.
17
Zipf’s Law
• 数据稀疏的严重性
•
参考文献
– – – Wolpert, D.H., Macready, W.G. (1995), No Free Lunch Theorems for Search, Technical Report SFI-TR-95-02-010 (Santa Fe Institute). Wolpert, David (1996), "“The Lack of A Priori Distinctions between Learning Algorithms," Neural Computation, pp. 1341-1390. Wolpert, D.H., Macready, W.G. (1997), "No Free Lunch Theorems for Optimization," IEEE Transactions on Evolutionary Computation 1, 67.
• CTB2006 MSRA2006
baseline +Ext.Dict +C +D+E +G+H +I+J+K +A +B(Final)
0.927
0.9423
0.9468
0.9475
0.9515
0.9518
0.9522
0.9531
Baseline 0.961
+Ext.Dict. 0.9694
+E+G+H+K 0.9704
作为人工智能分支的自然语言处理:
停滞的技术
赵 海 上海交通大学 计算机科学与工程系 zhaohai@ 沈阳 2010.09.18
起源
• 以人工智能的知识工程的角度来看待分析当前的自然语言处理技术。 • 当前的自然语言处理被机器学习为代表的自动化数据挖掘技术所严重 渗透。
• 真实数据(real data):最终的检验
12
学习模型并不重要
定理:没有免费的午餐
• • • 结论描述 by David
Wolpert and William G. Macready
– 由于对所有可能函数的相互补偿,最优化算法的性能是等价的。 没有其它任何算法能够比搜索空间的线性列举或者纯随机搜索算法更优。 该定理只是定义在有限的搜索空间,对无限搜索空间结论是否成立尚不清楚。
– 不存在15Fra bibliotek学习模型 vs. 特征工程
• 我们给出的一个没有免费午餐定理的直观的强化描述 – 给定任何一个学习模型,如果进行充分的特征工程,则 在此意义下,没有一个学习模型能够给出更优的性能。
• 举例:
– 我们在依存句法分析上的实践
• Nivre验证SVM提供了最强的性能 • 我们用最大熵在同样的学习框架下给出了更强的结果。 • 而通常认为SVM这样的边界最大化分类器优于最大熵。
– 辅助切分器作为特征
• 词典
– 最大匹配结果作为特征
• 参考文献
– Hai Zhao, Chang-Ning Huang, Mu Li (2006). An Improved Chinese Word Segmentation System with Conditional Random Field, SIGHAN-2006 – Low, Jin Kiat, & Ng, Hwee Tou, & Guo, Wenyuan (2005). A Maximum Entropy Approach to Chinese Word Segmentation, SIGHAN-2005
18
严重的问题
• 统计方法如何克服严重的稀疏性?
– 不断增大标注数据
19
研究者的通常做法
• 忙于把各种最新的机器学习方法移植到所 有的自然语言处理任务上,并企图证明某 个最新机器学习模型的移植是最有效的。
– 忘了没有免费的午餐?
• 少有人考虑特征工程/语料构建
20
不能脱离人的主观性的机器学习
• 小结:
• CoNLL
– The Conference on Computational Language Learning (CoNLL-97) was held on July 11, 1997 in Madrid, Spain.
– Named entity recognition, chunking, semantic role labeling, dependency parsing, joint learning of syntactic and semantic dependencies, etc
– 规则1
• 学习模型本身/特征体系