语音识别研究的背景意义及现状

合集下载

语音识别实验报告

语音识别实验报告

语音识别实验报告一、实验背景随着科技的迅速发展,语音识别技术在众多领域得到了广泛应用,如智能家居、智能客服、语音助手等。

为了深入了解语音识别的原理和性能,我们进行了本次实验。

二、实验目的1、了解语音识别的基本原理和工作流程。

2、比较不同语音识别系统的性能和准确性。

3、探究影响语音识别准确率的因素。

三、实验设备和材料1、计算机:配备高性能处理器和足够内存,以支持语音识别软件的运行。

2、麦克风:用于采集语音信号,选择了具有较好音质和灵敏度的麦克风。

3、语音识别软件:使用了市面上常见的几款语音识别软件,如_____、_____等。

四、实验原理语音识别的基本原理是将输入的语音信号转换为数字信号,然后通过一系列的算法和模型进行分析和处理,最终将其转换为文字输出。

这个过程涉及到声学模型、语言模型和搜索算法等多个方面。

声学模型用于对语音信号的声学特征进行建模,将语音信号转换为声学特征向量。

语言模型则用于对语言的语法和语义进行建模,预测可能的文字序列。

搜索算法则在声学模型和语言模型的基础上,寻找最优的文字输出结果。

五、实验步骤1、准备实验环境:安装和配置好语音识别软件,确保麦克风正常工作。

2、采集语音样本:选择了不同的说话人,包括男性、女性和不同年龄段的人,录制了多种类型的语音样本,如清晰的朗读、自然的对话、带有口音的讲话等。

3、进行语音识别测试:使用不同的语音识别软件对采集的语音样本进行识别,并记录识别结果。

4、分析识别结果:对识别结果进行仔细分析,计算准确率、召回率等指标,并对错误类型进行分类和统计。

六、实验结果与分析1、不同语音识别软件的性能比较软件 A 在清晰朗读的语音样本上表现较好,准确率达到了____%,但在自然对话和带有口音的语音样本上准确率有所下降。

软件 B 在各种类型的语音样本上表现较为均衡,准确率都在____%左右。

软件 C 在处理带有噪音的语音样本时表现出色,但对于语速较快的语音识别准确率较低。

基于人工智能的智能语音识别系统设计研究

基于人工智能的智能语音识别系统设计研究

基于人工智能的智能语音识别系统设计研究研究主题:基于人工智能的智能语音识别系统设计研究一、研究问题及背景随着人工智能技术的快速发展,语音识别系统逐渐成为人们生活和工作中的重要应用。

传统的语音识别系统存在着识别准确率低、适用范围窄以及用户体验差等问题。

因此,在当前背景下,设计一种基于人工智能的智能语音识别系统已成为一个重要研究课题。

本研究的主要问题是如何设计一种基于人工智能的智能语音识别系统,以提高识别准确率,并扩展其适用范围,从而改善用户体验。

本研究将重点解决以下几个关键问题:1. 如何利用深度学习等人工智能技术,提高语音识别的准确率?2. 如何处理各种语音中的噪声、口音和语速等干扰因素,提高识别系统的鲁棒性?3. 如何设计一种方便高效的语音输入交互界面,提升用户体验?二、研究方案方法为了解决上述问题,本研究将采取以下方案和方法:1. 数据收集与预处理:收集大规模的语音数据,并进行数据预处理,包括去除噪声、标准化音频格式等。

2. 深度学习模型设计:基于深度学习技术,设计一种适用于语音识别的神经网络模型,如卷积神经网络(CNN)和长短期记忆网络(LSTM)等。

3. 特征提取与降维:利用特征提取算法,提取语音信号中的关键特征,如梅尔倒谱系数(MFCC),并使用降维技术,减少特征空间的维度。

4. 噪声与干扰处理:设计噪声和干扰处理算法,如降噪算法和语音增强算法,以提高系统对各种干扰因素的鲁棒性。

5. 用户交互界面设计:设计一种方便快捷的语音输入交互界面,如语音助手或智能音箱等,以提升用户体验。

三、数据分析和结果呈现本研究将收集一定规模的语音数据集,并使用所设计的系统进行测试和实验。

针对不同的语音信号以及干扰因素,对比系统的识别准确率、鲁棒性和用户体验等指标,进行数据分析和结果呈现。

通过实验证明,所设计的基于人工智能的智能语音识别系统,在识别准确率、鲁棒性和用户体验等方面,相较于传统系统具有明显的改进和优势。

智能音箱语音识别技术研究—开题报告

智能音箱语音识别技术研究—开题报告

智能音箱语音识别技术研究—开题报告一、研究背景随着人工智能技术的不断发展,智能音箱作为一种新兴的智能硬件产品,逐渐走进人们的生活。

智能音箱通过语音识别技术,可以实现语音交互、智能控制家居设备、查询信息等功能,极大地方便了人们的生活。

然而,目前智能音箱的语音识别技术还存在一些挑战和问题,如准确率不高、对方言识别困难等。

因此,本研究旨在深入探讨智能音箱语音识别技术,提升其准确率和稳定性,为智能音箱的进一步发展提供技术支持。

二、研究目的本研究旨在通过对智能音箱语音识别技术进行深入研究,解决当前存在的问题和挑战,提升其准确率和稳定性。

具体目标包括: 1. 分析当前智能音箱语音识别技术的发展现状; 2. 探讨智能音箱语音识别技术存在的问题和挑战; 3. 提出相应的改进策略和方法,以提升语音识别准确率; 4. 设计并实现相应的实验验证,验证改进策略的有效性。

三、研究内容本研究将围绕以下内容展开: 1. 智能音箱语音识别技术原理及发展历程; 2. 当前智能音箱语音识别技术存在的问题和挑战; 3. 改进策略和方法探讨,包括但不限于深度学习、模型优化等方面; 4.实验设计与实施,验证改进策略的有效性; 5. 结果分析与总结,对实验结果进行评估和总结。

四、研究意义本研究对于智能音箱语音识别技术领域具有重要意义: 1. 可以提升智能音箱语音识别准确率,提高用户体验; 2. 可以推动智能硬件领域的发展,促进人工智能技术在生活中的应用; 3. 可以为相关领域的研究者提供参考和借鉴。

五、研究计划本研究计划分为以下几个阶段: 1. 调研阶段:对当前智能音箱语音识别技术进行调研分析; 2. 理论学习阶段:学习相关理论知识,为后续实验做准备; 3. 实验设计阶段:设计并实施相关实验,验证改进策略的有效性; 4. 数据分析阶段:对实验结果进行数据分析和总结; 5. 论文撰写阶段:撰写开题报告、毕业论文等相关文献。

通过以上研究计划,我们将全面深入地探讨智能音箱语音识别技术,并为其未来发展提供有力支持。

复杂信道下的说话人识别的开题报告

复杂信道下的说话人识别的开题报告

复杂信道下的说话人识别的开题报告
1. 研究背景和意义:
人类语音是一种信息传输方式,通过声音的韵律,音调等特征传递
信息。

但在实际的通信过程中,信道噪声,回声,混响等各种干扰会对
语音信号进行失真,降低通信质量,影响语音信息的准确传输。

因此,
在实际的通信场景下,如车载通信,远距离通信等,语音信号需要受到
更多的干扰的情况下,如何识别出说话人成为一项重要的研究课题。


究与解决这种情况下的说话人识别问题,将有助于完善人与人之间的语
音通信和自动语音识别系统,并且在广泛应用的基础技术领域中发挥重
要作用。

2. 研究内容和方法:
本研究将基于深度学习技术对复杂信道下的说话人进行识别,并采
用以下方法:
(1)建立数据集:通过收集现实中的语音数据,并对其进行预处理,标签标注等工作,建立适合于该研究的数据集。

(2)声学特征提取:针对建立的数据集提取语音的声学特征,如MFCC等特征。

(3)模型训练:使用深度学习模型,如CNN(卷积神经网络),LSTM(长短时记忆神经网络)等模型,训练说话人识别模型。

(4)模型验证:使用测试数据集对模型进行验证和评估,评估其识别准确性和鲁棒性等指标。

3. 研究预期结果:
(1)建立适合于复杂信道下的说话人识别数据集。

(2)设计有效的声学特征提取方法,提高识别精度。

(3)使用深度学习模型提高识别准确性和鲁棒性。

(4)开发具有实用价值的、能够应用于实际场景中的复杂信道下的说话人识别系统。

基于机器学习的智能语音识别与自然语言处理开题报告

基于机器学习的智能语音识别与自然语言处理开题报告

基于机器学习的智能语音识别与自然语言处理开题报告一、引言智能语音识别与自然语言处理技术的突破不仅改变了人机交互方式,而且在许多领域展示出了广阔的应用前景。

基于机器学习的智能语音识别与自然语言处理技术的研究近年来取得了显著进展,但仍然存在一些挑战和问题。

本开题报告旨在介绍本研究的背景和目标,并详细阐述所采用的研究方法和预期结果。

二、研究背景智能语音识别与自然语言处理是一门新兴的技术领域,其应用广泛涉及人工智能、智能音箱、智能助理、机器翻译等诸多领域。

随着机器学习技术的迅速发展,智能语音识别和自然语言处理的准确率和效果得到了显著提升。

然而,当前的技术仍然存在一些挑战,例如语音质量下降、多语种处理、口音识别、语音合成等方面的问题值得进一步研究。

三、研究目标本研究的目标是基于机器学习技术,针对现有智能语音识别与自然语言处理中的问题进行深入研究,开发出更为准确和高效的智能语音识别和自然语言处理系统。

具体而言,本研究将聚焦于以下几个方面:1.提高语音识别的准确度和鲁棒性;2.改善自然语言处理的效果和实时性;3.探索多语种处理和口音识别的方法;4.改进语音合成的质量和自然度。

四、研究方法本研究将采用以下方法来实现研究目标:1.收集和整理语音和文本数据集:从公开数据集和合作伙伴提供的数据中获取大量的语音和文本样本,用于训练和评估模型。

2.构建语音识别模型:利用深度学习技术构建语音识别模型,通过大规模训练提高识别准确度和鲁棒性。

3.设计自然语言处理模型:采用机器学习和自然语言处理技术,构建自然语言处理模型,用于文本处理、情感分析等任务。

4.研究多语种处理和口音识别:探索跨语种处理和口音识别的方法,提升系统在多语种环境下的适应性和性能。

5.优化语音合成质量:针对传统语音合成中的问题,结合深度学习技术改进合成质量和自然度。

五、预期结果本研究预期将取得如下结果:1.构建出高准确度和高鲁棒性的语音识别模型,提升语音识别的性能;2.设计出高效且准确度较高的自然语言处理模型,改善自然语言处理的效果和实时性;3.实现多语种处理和口音识别的技术,提升系统在多语种环境下的适应性;4.改进语音合成的质量和自然度,提供更加逼真和流畅的语音合成效果。

基于深度学习的语音识别技术研究

基于深度学习的语音识别技术研究

基于深度学习的语音识别技术研究第一章:引言1.1 研究背景语音识别技术是一项基于人工智能的重要应用技术,它可以将语音信号转换为文本或命令,并广泛应用于语音助手、智能音箱、语音搜索等领域。

近年来,随着深度学习技术的快速发展,基于深度学习的语音识别技术已经取得了显著的进展。

1.2 研究目的本文旨在研究基于深度学习的语音识别技术,探索其在实际应用中的优势和挑战,并提出一种改进的语音识别模型,以提高语音识别的准确率和鲁棒性。

第二章:基于深度学习的语音识别技术概述2.1 传统的语音识别技术传统的语音识别技术主要基于统计模型,如隐马尔可夫模型(HMM),采用特征提取和模型训练的方法进行语音识别。

然而,这种方法往往对语音信号的复杂性和变异性处理效果不佳。

2.2 深度学习在语音识别中的应用深度学习技术的兴起为语音识别带来了新的突破。

深度学习模型,如循环神经网络(RNN)和卷积神经网络(CNN),能够对语音信号进行端到端的建模和训练,避免了传统方法中复杂的特征提取和模型选择过程。

第三章:基于深度学习的语音识别模型3.1 循环神经网络(RNN)循环神经网络是一种能够处理序列数据的神经网络模型,它具有记忆能力,能够捕捉语音信号中的时序信息。

在语音识别中,可以使用循环神经网络来建模语音信号的时序特征。

3.2 卷积神经网络(CNN)卷积神经网络是一种能够提取局部特征的神经网络模型,它通过卷积操作和池化操作来提取语音信号的空间特征。

在语音识别中,可以使用卷积神经网络来建模语音信号的频谱特征。

3.3 深度神经网络(DNN)深度神经网络是一种多层的神经网络模型,它可以学习到更加复杂和抽象的语音特征表示。

在语音识别中,可以使用深度神经网络来提取更高层次的语义特征。

第四章:基于深度学习的语音识别技术改进方法4.1 数据增强数据增强是一种通过对训练数据进行变换和扩充来增加训练样本的技术。

在语音识别中,可以使用数据增强来提高模型的鲁棒性和泛化能力。

语音识别背景

语音识别背景

语音识别背景概述语音识别技术,也被称为自动语音识别Automatic Speech Recognition,(ASR),其目标是将人类的语音中的词汇内容转换为计算机可读的输入,例如按键、二进制编码或者字符序列。

与说话人识别及说话人确认不同,后者尝试识别或确认发出语音的说话人而非其中所包含的词汇内容。

语音识别技术的应用包括语音拨号、语音导航、室内设备控制、语音文档检索、简单的听写数据录入等。

语音识别技术与其他自然语言处理技术如机器翻译及语音合成技术相结合,可以构建出更加复杂的应用,例如语音到语音的翻译。

语音识别技术所涉及的领域包括:信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等。

[编辑本段]历史早在计算机发明之前,自动语音识别的设想就已经被提上了议事日程,早期的声码器可被视作语音识别及合成的雏形。

而1920年代生产的"Radio Rex"玩具狗可能是最早的语音识别器,当这只狗的名字被呼唤的时候,它能够从底座上弹出来。

最早的基于电子计算机的语音识别系统是由AT&T贝尔实验室开发的Audrey语音识别系统,它能够识别10个英文数字。

其识别方法是跟踪语音中的共振峰。

该系统得到了98%的正确率。

到1950年代末,伦敦学院(Colledge of London)的Denes已经将语法概率加入语音识别中。

1960年代,人工神经网络被引入了语音识别。

这一时代的两大突破是线性预测编码Linear Predictive Coding (LPC),及动态时间弯折Dynamic Time Warp技术。

语音识别技术的最重大突破是隐含马尔科夫模型Hidden Markov Model的应用。

从Baum提出相关数学推理,经过Labiner等人的研究,卡内基梅隆大学的李开复最终实现了第一个基于隐马尔科夫模型的大词汇量语音识别系统Sphinx。

[1]。

此后严格来说语音识别技术并没有脱离HMM框架。

语音情感计算在语音识别中的应用研究

语音情感计算在语音识别中的应用研究

语音情感计算在语音识别中的应用研究第一章:绪论1.1 研究背景和意义语音情感计算是一个热门的研究领域,它的出现是由于智能技术的发展和人工智能的普及。

在过去的几十年里,语音识别技术已经得到了广泛应用,例如智能手机、语音助手等。

然而,由于情感信息的缺失,现有的语音识别技术往往无法满足人们的需求。

因此,开发一种新的语音情感计算技术是非常必要和有意义的。

1.2 本文研究内容本文旨在探讨语音情感计算在语音识别中的应用研究。

主要包括以下内容:(1)语音情感计算的定义和发展历程(2)语音情感计算与语音识别的关系(3)语音情感计算在语音识别中的应用(4)未来展望第二章:语音情感计算的定义和发展历程2.1 语音情感计算的定义语音情感计算是一种通过分析语音信号中的声音特征,如声调、音高、语速、语调等信息,来判断说话者情感状态的技术。

2.2 语音情感计算的发展历程语音情感计算的研究可以追溯到20世纪60年代。

当时,研究人员主要关注音调和音高对情感的影响。

随着时间的推移,研究主题逐渐增加,研究人员将注意力转向语音信号中的其他特征和情感表现方式。

目前,语音情感计算在情感识别、自然语言处理、智能交互等领域得到广泛应用。

第三章:语音情感计算与语音识别的关系3.1 语音情感计算与语音识别的区别语音情感计算和语音识别是两种不同的技术。

语音识别的目的是将语音信号转换为文本,以方便计算机进行处理。

而语音情感计算则主要关注语音信号中的情感信息,如情绪、兴奋、压力等。

3.2 语音情感计算在语音识别中的应用尽管语音情感计算和语音识别是两种不同的技术,但它们在许多方面有着协同的作用。

例如,在语音情感计算中,声调和语速是最常用的情感特征。

这些特征也被广泛用于语音识别中。

通过使用语音情感计算的结果,可以帮助语音识别系统更好地理解和处理人们的语音输入。

第四章:语音情感计算在语音识别中的应用4.1 基于情感的语音识别基于情感的语音识别是指在语音转文本过程中,将语音信号中的情感信息考虑在内。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

语音识别研究的背景意义及现状
研究的背景及意义
自从人类可以制造和使用各种机器以来,人们就有一个理想,那就是让各种机器能听懂人类的语言并能按人的口头命令来行动,从而实现人机的语言交流。

随着科学技术的不断发展,语音识别(Speech Recognition)技术的出现,使人类的这一理想得以实现。

语音识别技术就是让机器通过识别和理解把语音信号转变为相应的文本或命令的高技术。

语音识别是一门交叉学科,语音识别正逐步成为信息技术中人机接口的关键技术,语音识别技术与语音合成技术的结合,使人们能够甩掉键盘,通过语音命令进行操作。

语音技术的应用已经成为一个具有竞争性的新兴高技术产业。

当今,语音识别产品在人机认交互应用中己经占到越来越大的比例。

音乐就是一种艺术。

通常可以解释为一系列对于有声、无声具有时间性的组织,并含有不同音阶的节奏、旋律及和声。

音乐与人的生活情趣、审美情趣、言语、行为、人际关系等等,有一定的关联。

音乐是人们抒发感情、表现感情、寄托感情的艺术,不论是唱、奏或听,都内涵着关联人们千丝万缕情感的因素。

特别对人的心理,会起着不能用言语所能形容的影响作用。

音乐可以通过几种途径来体验,而音乐播放器是现代生活中最便捷,最实用的一种。

现如今社会在飞速发展,人们的生活节奏也在不断加快,工作压力也在日益增大,致使越来越多的人选择在闲暇时间放松自己。

而听音乐就成了人们缓解生活压力的第一选择,医学表明音乐不仅可以对人们紧张的心情带来放松,还能有效的缓解高血压对心血管造成的压力。

因此音乐播放器已经成为人们日常生活中至关重要的物品。

然而可惜的是,传统的音乐播放器通常上是通过两种方式实现人们对播放器的控制的:一是按键式控制(其中也包括线控式),通过直接按键改变电平发出指令;二是通过远程控制,通过红外线或者蓝牙等对播放器发布命令。

这对于疲劳中的人们或者残障人士来说是不方便的。

为了减少手动操作的繁琐,此次设计专门致力于研究一种方案通过语音控制来实现对音乐播放器的控制,使其更加方便、更加人性化,实现音乐播放器的全自动语音控制。

这个设计不仅是为了解决人们日常使用传统音乐播放器不方便的烦恼,而且是为了研究语音识别技术在单片机中的应用,特别是在SPCE061A中实现语音识别的应用,设计出具有语音控制功能的音乐播放器。

国内外研究现状
语音识别的研究工作可以追溯到20世纪50年代AT&T贝尔实验室的Audry 系统,它是第一个可以识别十个英文数字的语音识别系统。

但真正取得实质性进展,并将其作为一个重要的课题开展研究则是在60年代末70年代初。

这首先是因为计算机技术的发展为语音识别的实现提供了硬件和软件的可能,更重要的是语音信号线性预测编码(LPC)技术和动态时间规整(DTW)技术的提出,有效的解决了语音信号的特征提取和不等长匹配问题。

这一时期的语音识别主要基于模板匹配原理,研究的领域局限在特定人,小词汇表的孤立词识别,实现了基于线性预测倒谱和DTW技术的特定人孤立词语音识别系统;同时提出了矢量量化(VQ)和隐马尔可夫模型(HMM)理论。

随着应用领域的扩大,小词汇表、特定人、孤立词等这些对语音识别的约束条件需要放宽,与此同时也带来了许多新的问题:第一,词汇表的扩大使得模板的选取和建立发生困难;第二,连续语音中,各个音素、音节以及词之间没有明显的边界,各个发音单位存在受上下文强烈影响的协同发音(Co-articulation)现象;第三,非特定人识别时,不同的人说相同的话相应的声学特征有很大的差异,即使相同的人在不同的时间、生理、心理状态下,说同样内容的话也会有很大的差异;第四,识别的语音中有背景噪声或其他干扰。

因此原有的模板匹配方法已不再适用。

实验室语音识别研究的巨大突破产生于20世纪80年代末:人们终于在实验室突破了大词汇量、连续语音和非特定人这三大障碍,第一次把这三个特性都集成在一个系统中,比较典型的是卡耐基梅隆大学(CarnegieMellonUniversity)的Sphinx系统,它是第一个高性能的非特定人、大词汇量连续语音识别系统。

这一时期,语音识别研究进一步走向深入,其显著特征是HMM模型和人工神经元网络(ANN)在语音识别中的成功应用。

HMM模型的广泛应用应归功于
AT&TBell实验室Rabiner等科学家的努力,他们把原本艰涩的HMM纯数学模型工程化,从而为更多研究者了解和认识,从而使统计方法成为了语音识别技术的主流。

统计方法将研究者的视线从微观转向宏观,不再刻意追求语音特征的细化,而是更多地从整体平均(统计)的角度来建立最佳的语音识别系统。

在声学模型方面,以Markov链为基础的语音序列建模方法HMM(隐式Markov链)比较有效地解决了语音信号短时稳定、长时时变的特性,并且能根据一些基本建模单元构造成连续语音的句子模型,达到了比较高的建模精度和建模灵活性。

在语言层面上,通过统计真实大规模语料的词之间同现概率即N元统计模型来区分识别带来的模糊音和同音词。

另外,人工神经网络方法、基于文法规则的语言处理机制等也在语音识别中得到了应用。

20世纪90年代前期,许多著名的大公司如IBM、苹果、AT&T和NTT都对语音识别系统的实用化研究投以巨资。

语音识别技术有一个很好的评估机制,那就是识别的准确率,而这项指标在20世纪90年代中后期实验室研究中得到了不断的提高。

比较有代表性的系统有:IBM公司推出的ViaVoice和DragonSystem 公司的NaturallySpeaking,Nuance公司的NuanceVoicePlatform语音平台,Microsoft的Whisper,Sun的VoiceTone等。

其中IBM公司于1997年开发出汉语ViaVoice语音识别系统,次年又开发出可以识别上海话、广东话和四川话等地方口音的语音识别系统ViaVoice'98。

它带有一个32,000词的基本词汇表,可以扩展到65,000词,还包括办公常用词条,具有“纠错机制”,其平均识别率可以达到95%。

该系统对新闻语音识别具有较高的精度,是目前具有代表性的汉语连续语音识别系统。

我国语音识别研究工作起步于五十年代,但近年来发展很快。

研究水平也从实验室逐步走向实用。

从1987年开始执行国家863计划后,国家863智能计算机专家组为语音识别技术研究专门立项,每两年滚动一次。

我国语音识别技术的研究水平已经基本上与国外同步,在汉语语音识别技术上还有自己的特点与优势,并达到国际先进水平。

中科院自动化所、声学所、清华大学、北京大学、哈尔滨工业大学、上海交通大学、中国科技大学、北京邮电大学、华中科技大学等科研机构都有实验室进行过语音识别方面的研究,其中具有代表性的研究单位为清华大学电子工程系与中科院自动化研究所模式识别国家重点实验室。

清华大学电子工程系语音技术与专用芯片设计课题组,研发的非特定人汉语数码串连续语音识别系统的识别精度,达到94.8%(不定长数字串)和96.8%(定长数字串)。

在有5%的拒识率情况下,系统识别率可以达到96.9%(不定长数字串)和98.7%(定长数字串),这是目前国际最好的识别结果之一,其性能已经接近实用水平。

研发的5000词邮包对非特定人连续语音识别系统的识别率达到98.73%;并且可以识别普通话与四川话两种语言,达到实用要求。

中科院自动化所及其所属模式科技(Pattek)公司2002年发布了他们共同推出的面向不同计算平台和应用的“天语”中文语音系列产品——PattekASR,结束了中文语音识别产品自1998年以来一直由国外公司垄断的历史。

相关文档
最新文档