人工智能语音识别技术

合集下载

语音识别技术在人工智能中的重要性

语音识别技术在人工智能中的重要性

语音识别技术在人工智能中的重要性随着人工智能技术的不断发展,语音识别技术作为其中的重要组成部分,扮演着越来越重要的角色。

语音识别技术是指计算机通过对语音信号进行处理和分析,将其转换为文字或命令的技术。

在各个领域的应用中,语音识别技术都发挥着不可替代的作用,极大地提升了人们的生活质量和工作效率。

本文将从语音识别技术的定义、发展历程、应用领域和未来趋势等方面探讨其在人工智能中的重要性。

一、语音识别技术的定义和原理语音识别技术是指计算机通过对语音信号进行处理和分析,将其转换为文字或命令的技术。

其原理是通过对语音信号进行采样、分析和识别,最终将其转化为计算机可以识别和处理的文本或指令。

语音识别技术的发展经历了从模式匹配到统计建模再到深度学习的演进过程,如今已经取得了显著的进展,成为人工智能领域的重要支撑技术之一。

二、语音识别技术的发展历程语音识别技术的发展可以追溯到上世纪50年代,当时的语音识别系统主要基于模式匹配的方法,准确率较低且受限于硬件设备的性能。

随着计算机技术和算法的不断进步,20世纪80年代出现了基于统计建模的语音识别技术,准确率得到了显著提升。

进入21世纪,随着深度学习技术的兴起,语音识别技术取得了巨大突破,识别准确率大幅提升,同时也实现了更加智能化的应用。

三、语音识别技术的应用领域1. 语音助手:语音助手如Siri、小爱同学等已经成为人们日常生活中不可或缺的一部分,帮助人们完成语音交互、信息查询、日程安排等各种任务。

2. 语音输入:语音识别技术可以将人们的语音输入转化为文字,极大地提高了文字输入的效率,尤其对于一些特殊群体如残障人士具有重要意义。

3. 语音搜索:通过语音识别技术,用户可以通过语音输入关键词进行搜索,极大地方便了信息检索的过程。

4. 语音翻译:语音识别技术可以实现语音的实时翻译,帮助人们跨越语言障碍,促进不同文化之间的交流与理解。

5. 语音识别技术在医疗、司法、金融等领域也有着广泛的应用,如医学影像报告的语音转文字、法庭审讯录音的转录等。

人工智能与语音识别技术

人工智能与语音识别技术

人工智能与语音识别技术近年来,随着科技的飞速发展,人工智能和语音识别技术成为了热门的话题。

人工智能技术的应用范围越来越广泛,而语音识别技术作为其中的一项重要技术,正逐渐改变着人们的生活和工作方式。

一、人工智能与语音识别技术的概念首先,我们需要明确人工智能和语音识别技术的概念。

人工智能是指一种使机器具备模拟和扩展人的智能的能力的科学和工程。

而语音识别技术是指将人类语音转换为能够被计算机理解和处理的文本或指令的技术。

人工智能和语音识别技术的结合,可以使机器具备接收、理解和处理人类语音指令或信息的能力。

通过语音识别技术,机器可以根据人类的语音指令执行相应的操作,从而实现人机交互的便利与高效。

二、人工智能与语音识别技术的应用领域1. 智能助理人工智能和语音识别技术的应用最为直观的领域之一就是智能助理。

例如,智能手机里的语音助手可以通过语音识别技术帮助用户完成各种指令,如发送短信、查询天气、播放音乐等。

这种便利性极大地提高了人们的生活效率。

2. 语音控制家居设备随着智能家居的兴起,人工智能和语音识别技术也被应用于家居设备的语音控制。

通过语音识别技术,人们可以通过口头指令控制家电设备的开关、调节温度、播放音乐等,实现智能化、便捷化的生活方式。

3. 视频会议与智能翻译在工作场景中,人工智能和语音识别技术的应用也非常广泛。

例如,在视频会议中,语音识别技术可以实时将会议内容转化为文字,方便与会人员进行记录和整理。

同时,智能翻译系统也可以通过语音识别技术,实现多语言之间的即时翻译,提高跨文化交流的效率。

4. 增强现实与虚拟助手人工智能与语音识别技术的结合也给增强现实和虚拟助手带来了更多可能性。

通过语音识别技术,人们在使用增强现实设备时可以通过语音指令获取信息、执行操作,使交互更加直观和自然。

在虚拟助手方面,语音识别技术可以实现人机对话,使得虚拟助手更具人性化和智能化。

三、人工智能与语音识别技术的挑战和发展方向当然,人工智能与语音识别技术的应用也面临一些挑战。

人工智能技术在语音识别中的应用

人工智能技术在语音识别中的应用

人工智能技术在语音识别中的应用一、人工智能简介人工智能(AI),是一门探讨如何使计算机去实现某些人类智能的科学。

人工智能是近年来科技领域的热门话题,其核心技术包括机器学习、自然语言处理和计算机视觉等。

人工智能技术与语音识别技术的结合,为语音识别技术的发展和创新提供了更广泛的应用方式。

二、语音识别简介语音识别是将自然语音转化为计算机能处理的数据形式的技术。

它可以帮助人类更加便捷地与计算机进行交互,实现人机交互的新方式。

三、语音识别技术的发展与现状随着计算机技术的迅速发展,语音识别技术也得到了极大的发展。

语音识别技术的发展主要经历了如下三个阶段:1. 基于模板的语音识别:该方法需要预先准备好模板,然后将语音信号与模板进行比对识别。

2. 基于统计的语音识别:该方法采用了概率统计模型,通过大规模样本的学习来实现语音的识别。

3. 基于深度学习的语音识别:该方法主要是通过深度神经网络对特征进行分层学习,从而得到更加复杂和抽象的特征表示。

目前,语音识别技术已经得到了广泛的应用,如智能家居、语音助手和语音翻译等。

四、人工智能技术在语音识别中的应用1. 声纹识别声纹识别是一种通过人的语音特征来识别身份的技术。

通常情况下,一个人的声音特征是具有唯一性的,其可以用于安全认证、语音密码等场合。

利用深度学习技术,可以获得更加准确的声纹特征,从而提高声纹识别的准确率和稳定性。

2. 语音识别/语音理解语音识别已经成为了人工智能技术最广泛应用的场景之一,这也是许多智能语音助手的关键功能。

英伟达公司的DeepSpeech模型通过神经网络对语音信号进行编码,然后通过Text-to-Speech进行文本输出,最终实现了革命性的语音转化文本的过程。

3. 语音驱动的智能家居语音驱动的智能家居相比于传统的家居系统更加便捷,并且可以让用户极大地提高居住的舒适体验。

用户只需要通过语音命令就可以控制灯光、空调、电视等家电,因此能够极大地提高家居系统的智能化程度。

人工智能与语音识别技术

人工智能与语音识别技术

人工智能与语音识别技术人工智能(Artificial Intelligence,简称AI)是一门研究如何使计算机具备像人类一样的智能的学科。

近年来,随着科技的不断进步以及计算机性能的提升,人工智能取得了长足的发展,其中语音识别技术成为了研究和应用的重点之一。

一、什么是语音识别技术语音识别技术是指通过计算机对声音信号进行处理和分析,根据预先设定的识别规则,将声音转化为相应的文字或命令。

通过将人类的语音输入转化为计算机可识别的形式,进而实现人机交互。

语音识别技术经历了漫长的发展过程,最开始的时候,只能实现对特定语音的识别,而且准确率并不高。

随着人工智能的发展以及大数据和机器学习算法的应用,语音识别技术得到了极大的提升,现在已经可以实现对多种语言和口音的准确识别。

二、人工智能与语音识别技术的应用1. 语音助手语音助手是当前人工智能与语音识别技术应用最为广泛的领域之一。

通过语音助手,用户可以通过语音指令来发送短信、播放音乐、查询天气等各种操作,大大提高了用户的便利性和交互体验。

2. 语音翻译随着全球化的进程,语言的交流和翻译变得越来越重要。

语音识别技术的应用可以实现实时语音翻译,将外语口语转化为本国语言文字,方便人们进行各种跨语言的沟通和交流。

3. 语音搜索语音搜索是一种新兴的搜索方式,相比于传统的文本搜索,语音搜索更加便捷和快速。

通过语音输入关键词,系统可以通过语音识别技术将语音转化为文字,并进行搜索,为用户提供准确的搜索结果。

4. 安防监控在安防监控领域,语音识别技术可以应用于语音指令的识别,进而实现对系统设备的操作。

例如,在某些高安防场所,需要通过语音识别确认身份后才能解锁或解除警报,从而提高了安全性。

5. 语音教育语音识别技术的应用也进一步推动了教育领域的创新发展。

通过语音教育系统,学生可以通过语音输入与电脑进行互动,实现语音作文、口语训练等功能,提高了学习的效果和趣味性。

三、人工智能与语音识别技术的挑战与展望尽管人工智能与语音识别技术在各个领域取得了巨大的进展,但仍然面临着一些挑战。

人工智能语音识别技术

人工智能语音识别技术

人工智能语音识别技术人工智能(Artificial Intelligence,简称AI)是指通过计算机科学和技术模拟人类智能的理论、方法和技术系统。

语音识别是人工智能技术的一个重要领域之一,指的是通过机器理解和识别人类语言的能力。

随着科技的不断发展和人类对便捷交互方式的需求,人工智能语音识别技术在日常生活、商业应用和科学研究等多个领域发挥着重要作用。

一、人工智能语音识别技术的原理及应用人工智能语音识别技术基于计算机科学、信号处理和机器学习等领域的理论与技术,通过对语音信号进行分析和处理,实现将语音内容转化为可被计算机理解和处理的文字或命令。

其原理主要包括声学建模、语言建模和解码器三个环节。

声学建模是指将语音信号处理为数字信号,以便计算机进行后续分析和处理。

语音信号中包含了丰富的信息,如声音的频率、幅度和持续时间等,通过声学模型的训练和优化,可以准确地提取出语音信号中的特征。

语言建模是指基于大数据和自然语言处理的技术,分析和预测语音信号的语法、结构和语义等特征。

通过对语音信号进行语言模型的训练和优化,可以实现对语音内容的快速理解和准确识别。

解码器是指通过采用不同的算法和模型,将分析处理后的特征转换为可被计算机识别和处理的文字或命令。

解码器的选择和优化对于提高语音识别的准确率和响应速度至关重要。

人工智能语音识别技术在诸多领域中得到了广泛的应用。

首先,在日常生活中,语音助手如苹果的Siri、亚马逊的Alexa、谷歌的Google Assistant等已经成为人们日常生活中的得力助手,可以实现语音命令下达、智能问答、音乐播放等功能。

其次,在智能交通领域,语音识别技术可以应用于智能驾驶、车载语音助手等,提升驾驶体验和道路交通安全性。

再次,在商业应用中,语音识别技术可以用于电话客服、语音翻译、语音搜索等,提高服务效率和用户体验。

二、人工智能语音识别技术的优势与挑战人工智能语音识别技术具有以下几个优势。

首先,语音交互更自然便捷,可以实现“无触碰”与“无界面”的交互模式,提升用户使用体验。

人工智能语音识别课件

人工智能语音识别课件
将语音信号转换为频域表 示,提取其频率特征。
梅尔频率倒谱系数
将频域特征转换为倒谱系 数,以突出语音的音调信 息。
线性预测编码
提取语音信号的线性预测 系数,用于描述语音信号 的动态特性。
声学模型与解码算法
声学模型
使用隐马尔可夫模型或深度神经网络 等模型描述语音信号的统计特性。
解码算法
根据声学模型和已知的语言知识,对 输入的语音信号进行解码,得到对应 的文字表示。
智能车载系统
在智能车载系统中,语音识别技 术可以实现安全、便捷的语音控 制,如导航、音乐播放等。
数据隐私与安全问题的关注与解决
数据加密与保护
01
对语音数据进行加密存储和传输,确保数据的安全性和隐私性

访问控制与权限管理
02
建立完善的访问控制和权限管理制度,限制对语音数据的非法
访问和使用。
安全审计与监控
语速与音调问题
总结词
语速和音调也是语音识别技术面临的挑战之一。
详细描述
不同人的语速和音调存在差异,这些因素可能影响语音识别系统的准确性。例如,语速过快可能导致语音识别系统无 法准确捕捉语音中的所有信息,而音调的变化也可能影响语音识别系统的判断。
解决方案
采用更加智能的语音识别算法,以适应不同的语速和音调。同时,可以通过提供用户自定义的语速和音 调设置,提高语音识别系统的适应性。
总结词:个性化服务
在此添加您的文本16字
详细描述:基于语音识别技术的智能客服系统,能够通过 用户语音信息进行个性化服务推荐,实现更精准的服务。
在此添加您的文本16字
总结词:多语种支持
在此添加您的文本16字
详细描述:智能客服系统支持多种语言,满足不同国家和 地区用户的需求,促进跨语言交流。

人工智能语音识别技术

人工智能语音识别技术

人工智能语音识别技术人工智能(Artificial Intelligence,简称AI)的快速发展已经给许多领域带来了巨大的影响,尤其是语音识别领域。

语音识别技术是人工智能技术中的一个重要方向,它使得计算机能够理解人类的语音指令并将其转化为可执行的操作。

在本文中,我们将探讨人工智能语音识别技术的应用与前景。

一、人工智能语音识别技术概述人工智能语音识别技术是一种通过模仿人类的听力系统来实现机器对语音信号进行处理和理解的技术。

其基本原理是将人类的语音信号转换为文本信息,以便计算机能够理解和响应。

这项技术已经在语音助手、智能家居、机器翻译、语音交互等领域得到广泛应用,并取得了显著的成果。

二、人工智能语音识别技术的应用2.1 语音助手语音助手已经成为人们生活中不可或缺的一部分,比如苹果的Siri、亚马逊的Alexa和谷歌的Google助手等。

这些语音助手利用人工智能语音识别技术,能够听懂人的语音指令并进行相应的回应,如查询天气、播放音乐、预约日程等。

语音助手的智能化和便捷性,使得人们的生活更加方便和高效。

2.2 智能家居随着人工智能技术的不断进步,智能家居已经成为一种趋势。

通过人工智能语音识别技术,人们可以通过语音指令来控制家中的各种设备,如电视、空调、灯光等。

这种智能化的家居系统使得人们能够更加便捷地管理和控制家庭设备,并实现家居环境的个性化定制。

2.3 机器翻译现在随着全球化的加速,机器翻译也变得格外重要。

人工智能语音识别技术可以帮助将外语口语转换为文字,并通过翻译引擎进行翻译。

这种技术的运用在国际交流与合作中起到了重要的推动作用,使得语言不再成为沟通的障碍。

2.4 语音交互人工智能语音识别技术还可以应用于语音交互领域。

例如,在客服行业,将语音识别与自然语言处理相结合,可以实现自动化的电话接待和客户服务。

这种语音交互的应用大大节省了人力成本,提高了服务质量。

三、人工智能语音识别技术的前景人工智能语音识别技术的应用前景十分广阔。

人工智能语音识别技术的原理与应用案例

人工智能语音识别技术的原理与应用案例

人工智能语音识别技术的原理与应用案例人工智能(Artificial Intelligence,AI)语音识别技术是近年来快速发展的一项重要技术。

它能够通过分析和理解人类的语音信息,将其转化为可理解和操作的数据,进而实现自然语言和机器之间的交互。

本文将详细介绍人工智能语音识别技术的原理,并结合一些实际应用案例进行解析。

一、人工智能语音识别技术的原理人工智能语音识别技术的原理主要包括信号处理、特征提取、语音识别模型、语义理解和应用。

1. 信号处理:将输入的语音信号进行预处理,包括采样和量化。

采样是指以一定的频率获取声波形成数字信号,而量化则是将连续的模拟信号转化为离散的数字信号。

此外,还需要对语音信号进行降噪和去除回响等处理,以提高信号质量。

2. 特征提取:在信号处理之后,需要将语音信号进行特征提取。

常用的特征包括梅尔频率倒谱系数(MFCC)、线性预测编码(LPC)等。

这些特征能够提取出语音信号中的频率、音高、能量等信息,并对不同语音进行区分。

3. 语音识别模型:在特征提取之后,需要建立语音识别模型。

传统的语音识别模型包括隐马尔可夫模型(Hidden Markov Model,HMM)和高斯混合模型(Gaussian Mixture Model,GMM)。

随着深度学习的发展,神经网络被广泛应用于语音识别中,在语音识别模型中经常使用的包括循环神经网络(Recurrent Neural Network,RNN)和卷积神经网络(Convolutional Neural Network,CNN)等。

4. 语义理解:语义理解是将语音信号转化为可理解和操作的语义信息,包括词义的识别和语义的分析。

这一过程通常涉及到自然语言处理(Natural Language Processing,NLP)的技术,例如词性标注、命名实体识别、依存句法分析等。

5. 应用:将语音识别的结果应用于具体的场景中,例如语音助手、语音输入、智能客服等。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

两款语音机器人:
Siri
Cortana
语音识别的实现(1)
首先,我们知道声音实际上是一种波。常见的mp3、wmv等格式都是压缩格式,必 须转成非压缩的纯波形文件来处理,比如Windows PCM文件,也就是俗称的wav 文件。wav文件里存储的除了一个文件头以外,就是声音波形的一个个点了。下图 是一个波形的示例。
语音识别的实现(2)
在开始语音识别之前,有时需要把首尾端的静音切除,降低对后续步骤造成的干扰。 这个静音切除的操作一般称为VAD,需要用到信号处理的一些技术。要对声音进行 分析,需要对声音分帧,也就是把声音切开成一小段一小段,每小段称为一帧。分 帧操作一般不是简单的切开,而是使用移动窗函数来实现,这里不详述。帧与帧之 间一般是有交叠的,就像下图这样:
声学模型
声学模型是把语音转化为声学表示的输出,即找到给定的语音源于某个声学符号的概率。 对于声学符号,最直接的表达方式是词组,但是在训练数据量不充分的情况下,很难得到 一个好的模型。词组是由多个音素的连续发音构成,另外,音素不但有清晰的定义而且数 量有限。因而,在语音识别中,通常把声学模型转换成了一个语音序列到发音序列(音素) 的模型和一个发音序列到输出文字序列的字典。
人工智能 ——语音识别技术
什么是语音识别技术?
与机器进行语音交流,让机器明白你说什么,这是 人们长期以来梦寐以求的事情。语音识别技术就是让 机器通过识别和理解过程把语音信号转变为相应的文 本或命令的高技术。语音识别技术主要包括特征提取 技术、模式匹配准则及模型训练技术三个方面。语音 识别技术车联网也得到了充分的引用,例如在翼卡车 联网中,只需按一键通客服人员口述即可设置目的地 直接导航,安全、便捷。
其中P(O|W )称做观测最大释然,由声学模型计算可得 其中P(w)称做先验概率,由语言模型模型计算可得 综上所述,语音识别就是解码(decoding)过程,如下图 所示:
声学模型的任务是计算P(O|W ), 即给定文字之后发出这段语音的概 率(最后利用贝叶斯,求P(O|W ) 是使用)。
Thanks!
音子模型进行聚类,然后使用聚类的结果作为分类目标。
最常用的声学建模方式是隐马尔科夫模型(HMM)。在HMM下,状态是隐变量,语音是 观测值,状态之间的跳转符合马尔科夫假设。其中,状态转移概率密度多采用几何分布建 模,而拟合隐变量到观测值的观测概率的模型常用高斯混合模型(GMM)。
传统模型GMM-HMM的算法
状态:这里理解成比音素更细致的语音单位就 行啦。通常把一个音素划分成3个状态。
语音识别的实现(5)
图中,每个小竖条代表一帧,若干帧语音对应一个状态,每三个状态组合成一个音 素,若干个音素组合成一个单词。也就是说,只要知道每帧语音对应哪个状态了, 语音识别的结果也就出来了。图中,每个小竖条代表一帧,若干帧语音对应一个状 态,每三个状态组合成一个音素,若干个音素组合成一个单词。也就是说,只要知 道每帧语音对应哪个状态了,语音识别的结果也就出来了。
语音识别的实现(8)
这里所说的累积概率,由三部分构成,分别是: 观察概率:每帧和每个状态对应的概率 转移概率:每个状态转移到自身或转移到下个状态的概率 语言概率:根据语言统计规律得到的概率 其中,前两种概率从声学模型中获取,最后一种概率从语言模型中获取。语言模型
是使用大量的文本训练出来的,可以利用某门语言本身的统计规律来帮助提升识别 正确率。语言模型很重要,如果不使用语言模型,当状态网络较大时,识别出的结 果基本是一团乱麻。

需要注意的是,由于人类发声器官运动的连续性,以及某些语言中特定的响。为了对不同语境的音素加以区分,通常使用能够
考虑前后各一个音素的三音子作为建模单元。

另外,在声学模型中,可以把三音子分解为更小的颗粒—状态,通常一个三音子对应
3个状态,但是这会引起建模参数的指数增长,常用的解决方案是使用决策树先对这些三
语音识别过程就是输入一段语音信号,找到一串文字(字或词)序列的过程, 语音输入 O =o1,o2,o3,...,ot 对应的标注 W =w1,w2,w3,...,wn 这个过程一般用概率来表示,用O表示语音信号,用W表示文字序列,则是要解 决下面这个问题:
由贝叶斯公式
展开,可得
由于P(O|W )P(W ) /P(O)是对每个句子进行计算的,而对 每个句子来说P(O) 是不变的,所以可以改写成如下
语音识别的实现(7)
那如果想识别任意文本呢?把这个网络搭得足够大,包含任意文本的路径就可以了。 但这个网络越大,想要达到比较好的识别准确率就越难。所以要根据实际任务的需 求,合理选择网络大小和结构。
搭建状态网络,是由单词级网络展开成音素网络,再展开成状态网络。语音识别过 程其实就是在状态网络中搜索一条最佳路径,语音对应这条路径的概率最大,这称 之为“解码”。路径搜索的算法是一种动态规划剪枝的算法,称之为Viterbi算法, 用于寻找全局最优路径。
那每帧音素对应哪个状态呢?有个容易想到的办法,看某帧对应哪个状态的概率最 大,那这帧就属于哪个状态。比如下面的示意图,这帧对应S3状态的概率最大,因 此就让这帧属于S3状态。
语音识别的实现(6)
那这些用到的概率从哪里读取呢?有个叫“声学模型”的东西,里面存了一大堆参数,通 过这些参数,就可以知道帧和状态对应的概率。获取这一大堆参数的方法叫做“训练”,需 要使用巨大数量的语音数据,训练的方法比较繁琐,这里不讲。
至此,声音就成了一个12行(假设声学特征是12维)、N列的一个矩阵,称之为观 察序列,这里N为总帧数。观察序列如下图所示,图中,每一帧都用一个12维的向 量表示,色块的颜色深浅表示向量值的大小。
语音识别的实现(4)
接下来就要介绍怎样把这个矩阵变成文本了。 首先要介绍两个概念:
音素:单词的发音由音素构成。对英语,一种 常用的音素集是卡内基梅隆大学的一套由39个音 素构成的音素集,参见The CMU Pronouncing Dictionary。汉语一般直接用全部声母和韵母作 为音素集,另外汉语识别还分有调无调,不详述。
语音识别的实现(3)
图中,每帧的长度为25毫秒,每两帧之间有25-10=15毫秒的交叠。我们称为以帧长 25ms、帧移10ms分帧。
分帧后,语音就变成了很多小段。但波形在时域上几乎没有描述能力,因此必须将 波形作变换。常见的一种变换方法是提取MFCC特征,根据人耳的生理特性,把每 一帧波形变成一个多维向量,可以简单地理解为这个向量包含了这帧语音的内容信 息。这个过程叫做声学特征提取。实际应用中,这一步有很多细节,声学特征也不 止有MFCC这一种,具体这里不讲。
但这样做有一个问题:每一帧都会得到一个状态号,最后整个语音就会得到一堆乱七八糟 的状态号,相邻两帧间的状态号基本都不相同。假设语音有1000帧,每帧对应1个状态,每 3个状态组合成一个音素,那么大概会组合成300个音素,但这段语音其实根本没有这么多 音素。如果真这么做,得到的状态号可能根本无法组合成音素。实际上,相邻帧的状态应该 大多数都是相同的才合理,因为每帧很短。
解决这个问题的常用方法就是使用隐马尔可夫模型(Hidden Markov Model,HMM)。 这东西听起来好像很高深的样子,实际上用起来很简单:
第一步,构建一个状态网络。
第二步,从状态网络中寻找与声音最匹配的路径。
这样就把结果限制在预先设定的网络中,避免了刚才说到的问题,当然也带来一个局限, 比如你设定的网络里只包含了“今天晴天”和“今天下雨”两个句子的状态路径,那么不管 说些什么,识别出的结果必然是这两个句子中的一句。
相关文档
最新文档