智能语音系统及其语音处理方法与设计方案

合集下载

基于语音识别的智能语音控制系统设计与实现

基于语音识别的智能语音控制系统设计与实现

基于语音识别的智能语音控制系统设计与实现智能语音控制系统是近年来快速发展的技术领域之一,它利用语音识别技术将语音指令转化为可识别的指令,并将其与智能设备或系统进行交互。

本文将探讨基于语音识别的智能语音控制系统的设计与实现。

首先,设计一个基于语音识别的智能语音控制系统需要经过几个关键步骤。

首先是语音信号的采集,可以通过麦克风等设备获取用户的语音输入。

接下来是语音信号的预处理,包括去除噪声、降低回声等操作,以提高语音识别的准确性。

然后是语音识别模型的训练,该模型可以是传统的隐马尔可夫模型(HMM)或基于深度学习的神经网络模型(如循环神经网络、卷积神经网络等)。

最后是将语音指令与智能设备或系统的交互设计,包括指令解析、功能调用等。

一种常见的基于语音识别的智能语音控制系统是家庭智能助手,如Amazon Echo、Google Home等。

这些智能助手通过内置的语音识别系统,能够识别用户的语音指令并根据指令执行相应的操作。

比如,用户可以通过语音指令打开灯光、调节温度、播放音乐等。

这些智能助手还可以与其他智能设备进行联动,实现更多的智能化功能。

设计基于语音识别的智能语音控制系统时,需要考虑以下几个方面。

首先是语音识别的准确性,系统必须能够高精度地将用户的语音指令转化为可执行的指令。

其次是系统的实时性,尤其是对于需要快速响应的操作,如灯光开关等,系统应能够实时处理用户的指令。

此外,系统的稳定性和可扩展性也是设计过程中要考虑的因素,以保证系统能够正常运行并适应不断变化的需求。

在实现基于语音识别的智能语音控制系统时,可以利用一些常见的开发工具和技术。

例如,使用Python语言编写语音识别的算法和模型,可以利用开源的库如Kaldi、CMUSphinx等来提供语音识别功能。

此外,利用现有的智能设备和系统的API,可以实现语音指令与功能调用的交互。

通过使用这些工具和技术,开发者可以相对容易地实现一个基本的智能语音控制系统。

人工智能语音助手的设计原理与实现方法

人工智能语音助手的设计原理与实现方法

人工智能语音助手的设计原理与实现方法随着人工智能技术的快速发展,语音助手已经成为我们生活中不可或缺的一部分。

从手机、智能音箱到车载导航系统,各种应用都开始使用语音助手来实现与用户的交互。

但是,人工智能语音助手的设计和实现涉及到多个复杂的领域,包括语音识别、自然语言处理和机器学习等。

本文将介绍人工智能语音助手的设计原理和实现方法,以便读者能够更好地了解其背后的技术原理。

1. 语音识别语音识别是人工智能语音助手的核心技术之一。

它主要涉及将人类语言转化为机器可识别的文字信息。

语音识别的过程包括语音信号的采样、特征提取、声学模型的训练和解码等步骤。

具体而言,采样阶段将语音信号转化为数字信号,特征提取阶段使用傅里叶变换等技术将语音信号转化为频谱信息,然后声学模型使用机器学习算法对不同音素进行训练,最后解码阶段根据特征信息将语音信号转化为文字信息。

2. 自然语言处理自然语言处理是人工智能语音助手的另一个重要组成部分。

它主要涉及将用户的自然语言输入转化为机器可理解的形式,并进行意图识别和语义理解。

在自然语言处理过程中,首先要进行分词,将连续的文本切分成有意义的词汇单位。

接下来,需要进行词性标注,确定每个词的词性和语法关系。

然后,需要进行语法分析,分析句子的结构和语义关系。

最后,进行语义理解,将用户的输入转化为机器可处理的语义表示。

3. 机器学习机器学习是人工智能语音助手设计和实现过程中的关键技术之一。

它主要用于对大量的语音和文本数据进行训练和优化,以提高语音识别和自然语言处理的准确度和性能。

机器学习算法主要分为有监督学习和无监督学习两类。

在人工智能语音助手的设计中,有监督学习算法常用于声学模型的训练和优化,而无监督学习算法则常用于语义理解和意图识别的模型训练。

4. 知识图谱知识图谱是人工智能语音助手设计和实现中的另一个重要技术。

它主要用于构建和管理大规模的知识库,用于语义理解和答案生成。

知识图谱是一种基于图结构的知识表示方式,通过实体和关系的连接来表示不同概念之间的关联关系。

智能语音识别系统设计与实现

智能语音识别系统设计与实现

智能语音识别系统设计与实现智能语音识别系统是一种能够将人类语音信息转换为文本或命令的技术,近年来随着人工智能和机器学习技术的快速发展,智能语音识别系统在各个领域得到了广泛的应用。

本文将介绍智能语音识别系统的设计与实现过程,包括系统架构、关键技术、算法原理以及实际应用场景等内容。

1. 智能语音识别系统概述智能语音识别系统是一种基于人工智能技术的应用程序,通过对输入的语音信号进行处理和分析,最终将其转换为文本或命令。

该系统通常包括语音采集、信号处理、特征提取、模型训练和解码等模块,通过这些模块的协同工作,实现对语音信息的准确识别和理解。

2. 智能语音识别系统设计2.1 系统架构智能语音识别系统的设计通常包括前端和后端两部分。

前端负责对输入的语音信号进行采集和预处理,后端则负责特征提取、模型训练和解码等任务。

在系统架构设计中,需要考虑前后端模块之间的数据传输和协同工作,以及系统的可扩展性和稳定性等因素。

2.2 关键技术智能语音识别系统涉及到多种关键技术,包括声学模型、语言模型、解码算法等。

声学模型用于对语音信号进行特征提取和建模,语言模型则用于对文本信息进行建模和预测,解码算法则用于将声学模型和语言模型结合起来,实现对语音信号的准确识别。

3. 智能语音识别系统实现3.1 算法原理智能语音识别系统的实现涉及到多种算法原理,包括隐马尔可夫模型(HMM)、深度学习(Deep Learning)等。

HMM是一种经典的声学建模方法,通过对声学特征序列进行建模,实现对语音信号的识别;深度学习则是近年来兴起的一种强大的机器学习方法,通过神经网络等技术实现对复杂数据的建模和预测。

3.2 实际应用场景智能语音识别系统在各个领域都有着广泛的应用场景,如智能助手、智能客服、智能家居等。

在智能助手领域,用户可以通过语音指令实现日程安排、天气查询、路线规划等功能;在智能客服领域,用户可以通过语音与机器人进行交流和沟通,实现问题解答和服务支持;在智能家居领域,用户可以通过语音控制家电设备、调节环境氛围等。

基于语音合成的智能语音导航系统设计和优化

基于语音合成的智能语音导航系统设计和优化

基于语音合成的智能语音导航系统设计和优化智能语音导航系统是一种将语音合成技术应用于导航领域的创新技术。

它通过将导航指令转化为自然语言,并通过语音合成技术以真实、自然的方式播放出来,为用户提供方便、直观的导航体验。

本文将介绍基于语音合成的智能语音导航系统的设计和优化方法,并对其应用前景进行探讨。

一、智能语音导航系统的设计1.用户需求分析在设计智能语音导航系统之前,首先需要进行用户需求分析。

通过调研和访谈,了解用户对语音导航系统的需求,并根据这些需求确定系统的功能和界面设计。

2.语音合成模块设计语音合成模块是智能语音导航系统的核心模块。

设计语音合成模块时,需要选择合适的语音合成技术,并优化合成参数,以提高语音合成的质量和自然度。

同时,还需要考虑语音合成的实时性,确保导航指令能够及时播放。

3.交互设计智能语音导航系统的交互设计应该简洁明了,方便用户操作。

通过界面设计和语音交互设计,使用户能够方便地输入导航目的地,并获取导航指引。

同时,系统应该具备语音识别功能,能够识别用户的语音输入,从而实现更便捷的操作体验。

4.导航算法设计导航算法是智能语音导航系统的核心。

通过设计高效的导航算法,能够实现准确的导航指引,并优化路径搜索,提高导航的准确性和实时性。

同时,还应该考虑路况信息的获取和更新方法,确保导航系统能够随时提供最新的导航信息。

二、智能语音导航系统的优化1.语音合成质量优化语音合成质量是评价智能语音导航系统的重要指标之一。

为了提高语音合成的质量,可以采用以下优化方法:- 通过调整声学参数,优化语音合成的音色和音质;- 使用深度学习等先进技术,提高语音合成的自然度和流畅度;- 优化语音合成的语速和音量,使导航指令更易于听清和理解。

2.交互体验优化为了提高用户的交互体验,可以采用以下优化方法:- 设计简洁、直观的用户界面,减少操作步骤;- 优化语音交互的响应时间,提高系统的实时性;- 增加多语种支持,方便国际用户使用;- 提供导航历史记录和常用地点存储功能,方便用户查找和管理导航目的地。

智能语音助手的设计与实现

智能语音助手的设计与实现

智能语音助手的设计与实现随着人工智能的快速发展,智能语音助手已经成为我们日常生活中不可或缺的一部分。

这些语音助手能够帮助我们完成各种任务,如播放音乐、查询天气、发送短信等。

然而,要设计与实现一个可用的智能语音助手并不是一件简单的事情。

本文将介绍智能语音助手的设计与实现,包括语音识别、自然语言处理、对话管理以及输出生成等不同的模块。

一、语音识别模块语音识别是智能语音助手的核心。

本模块主要负责将用户说出的语音转化为文本信息,然后交给自然语言处理模块进行处理。

语音识别的过程分为预处理、信号处理、特征提取和模型识别等几个步骤。

预处理:通过预处理,我们可以清洗语音信号中的杂音和谈话声波,提高语音识别的准确率。

信号处理:接下来,我们需要将预处理后的语音信号进行分帧和加窗处理,使得每一帧的语音信号保持相同的长度,方便进行下一步的特征提取。

特征提取:然后,我们需要从每一帧语音信号中提取出一些特定的特征,如梅尔倒频系数(MFCC)、线性预测系数(LPC)等,以方便后续的模型训练和识别。

模型识别:最后,我们通过使用深度学习算法,如卷积神经网络(CNN)、长短时记忆网络(LSTM)等来训练模型,并将提取的特征输入到这些模型中,以得出正确的文本结果。

二、自然语言处理模块自然语言处理模块是智能语音助手实现对话和交互的关键模块。

本模块主要负责将语音识别后的文本信息进行处理,并输出相应的回答。

自然语言处理的过程分为分词、语法分析、语义分析、及回答生成等几个步骤。

分词:自然语言处理的第一步就是进行分词,将输入的句子分成多个词语,方便后面进行更深入的分析。

语法分析:接下来,我们需要进行语法分析,对输入的句子进行结构分析和分类。

这样有助于判断输入的含义,提取重要信息等。

语义分析:然后,我们进行语义分析并对不同的词汇进行分类。

例如,我们需要识别文本中的关键词、实体等信息,以便于对话管理模块进行更深入的处理。

回答生成:最后,我们需要将处理后的信息进行输出,生成相应的回答。

智慧语音系统如何开发设计方案

智慧语音系统如何开发设计方案

智慧语音系统如何开发设计方案智能语音系统的开发设计方案需要综合考虑多个方面,包括技术架构,语音识别和理解技术,用户界面设计,以及数据管理和隐私保护等等。

下面是一个简单的智能语音系统开发设计方案的示例,共计1200字。

1. 技术架构智能语音系统的技术架构至关重要,它决定了系统的可扩展性和灵活性。

一个推崇的架构方案是采用微服务架构,将不同的功能模块拆分为独立的服务,通过API进行通信。

这种架构方案能够有效地解耦各个模块,方便新增功能和维护。

2. 语音识别和理解技术语音识别和理解是智能语音系统的核心技术。

最常用的技术是基于深度学习的语音识别技术,如循环神经网络和卷积神经网络。

此外,为了更好地理解用户的意图,自然语言处理技术也是必须的,如命名实体识别和语义分析等。

3. 用户界面设计智能语音系统需要一个友好易用的用户界面,让用户可以方便地与系统进行交互。

传统的图形用户界面可以与语音交互结合,提供更丰富的交互方式。

此外,考虑到移动设备的普及,对于移动端用户,还需要设计适配手机屏幕的用户界面。

4. 数据管理和隐私保护智能语音系统需要处理大量的数据,包括用户语音输入和系统输出等。

因此,一个有效的数据管理方案是必须的。

数据应该以加密的方式传输和存储,并采取访问控制和安全审计等措施保护用户的隐私。

5. 模型训练和优化为了提高系统的精确度和性能,需要不断对模型进行训练和优化。

这包括收集和标注更多的训练数据,采用先进的优化算法和技术,以及不断优化系统的架构和参数。

6. 用户反馈和改进智能语音系统应该能够收集用户的反馈,并将其用于系统的改进。

用户可以通过语音或文本形式提供反馈,系统可以收集这些反馈并进行分析和处理。

用户反馈的质量和数量对于改进系统的效果起到至关重要的作用。

7. 可扩展性和灵活性智能语音系统应该具备较高的可扩展性和灵活性,以应对不同场景和需求的变化。

系统应该可以方便地增加新的功能模块,并能够与第三方系统和设备进行集成。

智能语音助手系统设计与开发

智能语音助手系统设计与开发

智能语音助手系统设计与开发随着现代社会的发展,智能语音助手成为了人们生活中不可或缺的一部分。

这种基于人机交互的技术已经深入到我们的日常生活中,随时随地可以为我们提供帮助和支持。

为了更好地满足用户的需求,智能语音助手系统的设计和开发变得尤为重要。

一、智能语音助手系统的概述智能语音助手系统是通过语音技术和人工智能技术实现人机交互的系统。

用户只需要用口语和系统交互,就可以实现各种功能的调用。

这种技术除了能够普及到移动设备、家庭设备等平台,还可以将人类与计算机之间的交互方式更新为更自然、更高效和更舒适的形式。

二、智能语音助手系统的设计原理1.语音识别技术智能语音助手系统的首要功能就是语音识别,它将用户的语音转换成计算机可以识别和处理的数字信息。

这些数字信号会经过预处理、特征提取等步骤,最终形成一组与用户所说内容相匹配的数字信息。

目前,语音识别技术已经有了飞速发展,依靠深度学习的方法实现更加快速和准确的识别能力,而且在场景切换、声音环境变化等方面也有着较高的应对能力。

2.自然语言处理技术自然语言处理技术是指将自然语言文本转换成计算机程序可以理解的形式。

智能语音助手系统需要通过自然语言处理技术将用户的语音指令转换成计算机可以处理的指令。

这需要利用自然语言处理技术的文本分类、文本建模等方法,实现语音转换成字符串等操作。

3.智能推荐技术智能语音助手的另一个重要功能是智能推荐,即根据用户的历史记录、行为习惯等信息,为用户推荐一些符合其需求的内容或服务。

为此,智能语音助手系统需要对用户产生的数据进行分析,然后利用数据挖掘、机器学习等方法对这些数据进行预处理,最终形成一些具有推荐价值的内容,向用户做出有针对性的推荐。

三、智能语音助手系统的开发过程1.确定需求智能语音助手系统开发的第一步就是确定用户的需求。

这需要分析用户的使用场景、习惯、行为等信息,调查用户的期望和需求,明确系统的目标等。

2.实现基础功能根据需求分析结果,开发人员需要完成语音识别、自然语言处理等技术的实现,搭建系统框架和工程基础,完成基础模块的设计和开发。

基于AI的智能语音助手系统设计与实现

基于AI的智能语音助手系统设计与实现

基于AI的智能语音助手系统设计与实现随着人们对便捷生活的需求越来越高,各种智能语音助手系统应运而生,如今已成为很多人日常生活中必不可少的工具。

随着时代的发展,智能语音助手的技术也与日俱增,其中基于AI技术的智能语音助手更是被广泛应用。

基于AI的智能语音助手系统不仅可以帮助人们更方便地完成各种任务,还能大大提升人们的生活品质。

本文将从设计和实现的角度分析基于AI的智能语音助手系统。

一、智能语音助手系统的功能设计智能语音助手系统的功能设计是非常重要的一步,关系到这个系统的实用性和用户体验。

智能语音助手系统一般要具备以下基本的功能:1. 语音识别功能语音识别是智能语音助手系统最基本的功能。

通过该功能,用户可以通过语音指令控制系统完成相关操作。

语音识别功能的设计需要使用AI技术,可以使用深度学习算法来对音频数据进行分析和处理。

2. 联网功能智能语音助手系统需要联网才能实现更多的功能。

联网功能可以实现在线更新和获取相关数据,使用API调用各种服务等。

3. 计算机控制功能智能语音助手系统还需要具备计算机控制的基本功能,如音乐播放、打开软件、设置闹钟、查看天气预报等。

4. 智能对话功能用户获取信息的方式是多种多样的,有时需要通过智能对话的方式来获取信息。

智能对话是基于AI技术设计的,可以提出问题并获得及时的回答。

例如,在智能语音助手系统中可以设置智能闲聊、智能问答、智能推荐、智能翻译等多种智能对话的功能。

二、基于AI技术的智能语音助手系统设计原理基于AI技术的智能语音助手系统设计原理包括两个主要的部分:语音识别和自然语言处理。

其中,语音识别使用语音识别算法将声音转换为数字信号,随后使用自然语言处理解析识别出的语音信息并进行相应操作。

1. 语音识别语音信号识别主要使用梅尔频率倒谱系数MFCC (Mel-frequency cepstral coefficients),将原始的音源转化为能够被机器学习识别的数值信号。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

本技术实施例提出一种智能语音系统,包括蓝牙终端和智能设备;所述蓝牙终端包括麦克风阵列、语音预处理装置、第一传输装置和回放装置;所述智能设备包括第二传输装置和智能处理器;所述第一传输装置包括第一BLE通信装置和第一A2DP通信装置,所述第二传输装置包括第二BLE通信装置和第二A2DP通信装置;所述语音预处理装置和所述麦克风阵列相连,用于对所述麦克风阵列获取的第一音频信号进行预处理后通过所述第一BLE通信装置发送给所述第二BLE通信装置;所述回放装置与所述第一A2DP通信装置相连,用于通过所述第一A2DP通信装置接收所述第二A2DP通信装置发送的第二音频信号。

可实现无延迟语音采集。

技术要求1.一种智能语音系统,其特征在于,包括蓝牙终端和智能设备;所述蓝牙终端包括麦克风阵列、语音预处理装置、第一传输装置和回放装置;所述智能设备包括第二传输装置和智能处理器;所述第一传输装置包括第一BLE通信装置和第一A2DP通信装置,所述第二传输装置包括第二BLE通信装置和第二A2DP通信装置;所述语音预处理装置和所述麦克风阵列相连,用于对所述麦克风阵列获取的第一音频信号进行预处理后通过所述第一BLE 通信装置发送给所述第二BLE通信装置;所述回放装置与所述第一A2DP通信装置相连,用于通过所述第一A2DP通信装置接收所述第二A2DP通信装置发送的第二音频信号。

2.根据权利要求1所述的智能语音系统,其特征在于,当所述第一A2DP通信装置与所述第二A2DP通信装置进行第二音频信号传输的同时,所述第一BLE通信装置与所述第二BLE 通信装置进行第一音频信号传输。

3.根据权利要求2所述的智能语音系统,其特征在于,所述智能语音系统进一步包括语音云服务器,所述语音云服务器与所述智能设备进行远程通信并获取智能设备发送的所述第一音频信号,用于对所述第一音频信号进行处理。

4.根据权利要求3所述的智能语音系统,所述语音云服务器和所述智能设备之间通过无线网络进行数据传输。

5.根据权利要求1所述的智能语音系统,其特征在于,所述麦克风阵列为模拟麦克风阵列或数字麦克风阵列,所述麦克风阵列包括1~8个麦克风。

6.根据权利要求1所述的智能语音系统,其特征在于,所述智能设备为智能手机、平板电脑、智能电视或智能机顶盒。

7.根据权利要求1~6任一所述的智能语音系统,其特征在于,所述语音预处理装置进一步包括:唤醒装置,与所述麦克风阵列连接,用于唤醒所述语音预处理装置和第一传输装置;降噪装置,连接在所述麦克风阵列和所述第一传输装置之间,用于对采集到的所述音频信号进行降噪处理;波束形成装置,与所述麦克风阵列连接,用于加强特定方向的语音采集;回声消除装置,连接在所述降噪装置和所述第一传输装置之间,用于对采集到的所述音频信号进行回声消除处理。

8.根据权利要求1~6任一所述的智能语音系统,其特征在于,所述智能设备进一步包括:唤醒装置,用于唤醒所述语音预处理装置和第一传输装置;降噪装置,用于对采集到的所述音频信号进行降噪处理;波束形成装置,用于加强特定方向的语音采集。

9.根据权利要求1~6任一所述的智能语音系统,其特征在于,所述第一音频信号为语音控制信号。

10.一种用于智能语音系统中的语音处理方法,其特征在于,包括如下步骤:(1)蓝牙终端的麦克风阵列获取第一音频信号并发送给语音预处理装置;(2)所述语音预处理装置经过预处理后将所述第一音频信号通过BLE传输协议传输至智能设备;(3)智能设备对所述第一音频信号处理后返回控制信号到所述语音预处理装置。

11.根据权利要求10所述的语音处理方法,其特征在于,所述第一音频信号通过BLE传输协议传输至智能设备的同时,第二音频信号通过A2DP协议由智能设备传输至蓝牙终端。

技术说明书一种智能语音系统及其语音处理方法技术领域本技术涉及多媒体技术领域,尤其涉及一种智能语音系统及其语音处理方法。

背景技术随着语音人机交互界面的出现,越来越多的产品需要智能语音的交互。

目前市场上的智能语音交互产品都是基于wifi的产品,但wifi功耗大,便携性不好。

而且智能手机的发展已经在形成了一个便携式的计算中心。

所以依托蓝牙技术实现便携性的智能语音交互产品会是一个重要的发展趋势。

而传统蓝牙和手机之间传语音采用的是经典蓝牙的方式,会存在手机经典蓝牙模式频繁切换的问题,导致体验不佳。

经典蓝牙的音频传输是通过HFP(Hands-free Profile,免提配置文件),和A2DP(Advanced Audio Distribution Profile,蓝牙音频传输模型协定)两种蓝牙profile实现。

HFP用在打电话场景,其特点是实时双向语音通信,而A2DP是用在听立体声音乐场景,其特点是单向音频推送。

这两种蓝牙的音频通信占用了经典蓝牙的通道,而且在目前的实现中是根据场景相互切换的。

所以目前有蓝牙音频产品的语音需求是通过将模式从听歌的A2DP场景切换到HFP的场景进行语音数据采集,这样会有两个问题,1,建立新的系统链接需要时间,需要等待接近2秒时间,体验很差。

2,采集语音的数据需要在发出采集指令后立即进行采集和传输,旧有的模式切换方式会导致前面的数据丢失。

因为旧的手机的智能语音的接入模式是用经典蓝牙的HFP接入,而在播放音乐时候使用A2DP模式。

当音乐播放时候发起智能语音输入需求时,需要从A2DP模式切换到HFP模式,这个手机和蓝牙终端建立HFP切换的时间需要接近2秒。

而旧的实现方式在建立蓝牙连接时候无法采集语音和上传数据,等到2秒钟后链路建立好了,这2秒钟的语音数据没有被采集到,所以产生数据丢失,和体验不佳的情况。

亟待一种新的语音处理技术解决现有技术的缺陷。

技术内容基于以上问题,本技术实施例提出一种智能语音系统,在原有的A2DP的蓝牙音频通路上不做蓝牙服务的切换,直接实现语音的回传的功能,实现无延迟语音采集。

本技术实施例是这样实现的,一种智能语音系统,包括蓝牙终端和智能设备;所述蓝牙终端包括麦克风阵列、语音预处理装置、第一传输装置和回放装置;所述智能设备包括第二传输装置和智能处理器;所述第一传输装置包括第一BLE(Bluetooth Low Energy,蓝牙低能耗)通信装置和第一A2DP通信装置,所述第二传输装置包括第二BLE通信装置和第二A2DP通信装置;所述语音预处理装置和所述麦克风阵列相连,用于对所述麦克风阵列获取的第一音频信号进行预处理后通过所述第一BLE通信装置发送给所述第二BLE通信装置;所述回放装置与所述第一A2DP通信装置相连,用于通过所述第一A2DP通信装置接收所述第二A2DP通信装置发送的第二音频信号。

进一步地,当所述第一A2DP通信装置与所述第二A2DP通信装置进行第二音频信号传输的同时,所述第一BLE通信装置与所述第二BLE通信装置进行第一音频信号传输。

进一步地,所述智能语音系统进一步包括语音云服务器,所述语音云服务器与所述智能设备进行远程通信并获取智能设备发送的所述第一音频信号,用于对所述第一音频信号进行处理。

进一步地,所述语音云服务器和所述智能设备之间通过无线网络进行数据传输。

进一步地,所述麦克风阵列为模拟麦克风阵列或数字麦克风阵列,所述麦克风阵列包括1~8个麦克风。

进一步地,所述智能设备为智能手机、平板电脑、智能电视或智能机顶盒。

进一步地,所述语音预处理装置进一步包括:唤醒装置,与所述麦克风阵列连接,用于唤醒所述语音预处理装置和第一传输装置;降噪装置,连接在所述麦克风阵列和所述第一传输装置之间,用于对采集到的所述音频信号进行降噪处理;波束形成装置,与所述麦克风阵列连接,用于加强特定方向的语音采集;回声消除装置,连接在所述降噪装置和所述第一传输装置之间,用于对采集到的所述音频信号进行回声消除处理。

进一步地,所述智能设备进一步包括:唤醒装置,用于唤醒所述语音预处理装置和第一传输装置;降噪装置,用于对采集到的所述音频信号进行降噪处理;波束形成装置,用于加强特定方向的语音采集。

进一步地,所述第一音频信号为语音控制信号。

根据本技术实施例的另一方面,本技术实施例还提出一种用于智能语音系统中的语音处理方法,在原有的A2DP的蓝牙音频通路上不做蓝牙服务的切换,直接实现语音的回传的功能,实现无延迟语音采集。

本技术实施例是这样实现的,一种智能语音系统中的语音处理方法,包括如下步骤:(1)蓝牙终端的麦克风阵列获取第一音频信号并发送给语音预处理装置;(2)所述语音预处理装置经过预处理后将所述第一音频信号通过BLE传输协议传输至智能设备;(3)智能设备对所述第一音频信号处理后返回控制信号到所述语音预处理装置。

进一步地,所述第一音频信号通过BLE传输协议传输至智能设备的同时,第二音频信号通过A2DP协议由智能设备传输至蓝牙终端。

采用上述技术方案,具有以下有益效果:本技术实施例提出一种基于ble的智能语音传送技术,和经典蓝牙不冲突,也不需要经典蓝牙旧有的体系切换工作模式来实现采集语音的功能。

实现的产品形态是蓝牙音箱和蓝牙耳机等蓝牙音频设备,使其具有更流畅的交互体验。

附图说明图1是根据本技术一个实施例提供的智能语音系统的结构框图;图2是根据本技术另一实施例提供的智能语音系统的结构框图;图3是根据本技术另一实施例提供的智能语音系统中的语音处理方法的流程图。

具体实施方式为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。

基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。

本技术实施例提出一种智能语音系统,参考图1,为本技术实施例提出的智能语音系统的结构框图,一种智能语音系统,包括蓝牙终端1和智能设备2;所述蓝牙终端1包括麦克风阵列101、语音预处理装置103、第一传输装置102和回放装置104;所述智能设备2包括第二传输装置201和智能处理器202;所述第一传输装置102包括第一BLE通信装置2021和第一A2DP通信装置1022,所述第二传输装置201包括第二BLE通信装置2011和第二A2DP通信装置2012;所述语音预处理装置103和所述麦克风阵列101相连,用于对所述麦克风阵列101获取的第一音频信号进行预处理后通过所述第一BLE通信装置1021发送给所述第二BLE通信装置2011;所述回放装置104与所述第一A2DP通信装置1022相连,用于通过所述第一A2DP通信装置1022接收所述第二A2DP通信装置2012发送的第二音频信号。

当所述第一A2DP通信装置1022与所述第二A2DP通信装置2012进行第二音频信号传输的同时,所述第一BLE通信装置1021与所述第二BLE通信装置2011进行第一音频信号传输。

相关文档
最新文档