说话人识别算法研究

合集下载

说话人识别研究综述_王书诏

说话人识别研究综述_王书诏

剧烈; ( 4) 加窗, 针对每个音框乘上汉明窗以消除音框
两端的不连续性, 避免分析时受到前后音框的影响;
( 5) 将音框通过低通滤波器, 可去除异常高起的噪声。
3 特征提取
经过预处理后, 几秒钟的语音就会产生很大的数 据量。提取说话人特征的过程, 实际上就是去除原来语 音中的冗余信息, 减小数据量的过程。从语音信号中提 取的说话人特征参数应满足以下准则: 对局外变量( 例 如说话人的健康状况和情绪, 系统的传输特性等) 不敏 感; 能够长期地保持稳定; 可经常表现出来; 易于进行 测量; 与其他特征不相关。
果, 而“倒谱特征”则是利用了对语音信号进 行适当的
同态滤波后, 可将激励信号与声道信号加以分离的原
理。倒谱中维数较低的分量对应于语音信号的声道分
量, 倒谱中维数较高的分量对应于语音信号的音源激
语音技术
Y Vo ic e t e c h n o lo g
励分量。因此, 利用语音信号倒谱可将它们分离, 彼此
一定的相似性准则形成判断。
输入语音 预处理
特性 提取
训练 识别
模型产生 模型存储
相似性准则
判决
图 1 说话人识别系统框图
2.3 预处理[5] 通常, 输入的语音信号都要进行预处理, 预处理过
程的好坏在一定程度上也影响系统的识别效果。一般
! " # 电声技术 2007 年 第 31 卷 第 1 期
语音技术
the feature extraction, model training and classification is reviewed and the trend and rubs are also discussed.
【Key wor ds】speaker recognition; feature extraction; model training; classification

基于DTW的说话人识别技术研究

基于DTW的说话人识别技术研究
式:

D一 ∑ d ] [时间规整情况 下两矢 量 的距离 , [ ] d X, 是第 i 帧测试矢量 x 和第 i 帧模 板矢量 Y. 之间的距离测 度 ,一 般这个 距 离测度采用欧氏距离 的平方 , 如下式所示 :
想, 解决 了语音发音长短不一 的模板匹配问题 , 是语音识别 中出现较早 , 为经典 的一种算法。 较 设测试语 音参 数共有 I 帧矢量 , 测试 语 则 音模板的特征矢量 序列为 x= X 、 。 ( 。X 、… 、 , x) 参考语音参数共有 J ,则参考模板的特征矢 帧 量 序列为 Y= Y 、 … 、 1。且 , ( .Y 、 Y) ≠J, 动态 则 时间规整就是要找到一个时 间规整 函数 』 =州 它将测 试矢量 的 时间轴 j 线性 地 映射到 参 非 考模板 的时 间轴 j 二 并使 该 函数 w满足 下 j,
】概 述
对 说话人识 别 的研 究始于 2 0世纪 3 0年 代, 早期 的工作主要集 中在人耳听辨实验和探 讨听音识别的可能性 方面。而对说话人 自动识 别的研究则起始于 2 0世纪 6 O年代 ,近几十年 来, 在这一技术的研究上取得 了重大的进展 , 并 在许多领域得到 了应用l l l 。主要讨论了 D W 算 T 法在说话人识别技术 中的应用 ,通过编程做 了 个基于 D W 的说话 人识别系统 ,并 对仿真 T 实验数据进行 了分析。 2 基于动态 时间规 整( T 的说话人 识 D W) 别方法 的算法实现 21 . 基于动态时间规整( T 的说话人识 D W)

预 加重 的 目的在于 消 除唇辐 射 的影 响 ,提 升语 音高 频部 分, 使语 音信号 的频谱 区域平 坦, 被广泛使用 的预加重 网络 是一 固定的数字 系统 , 信号方 程为: sn= ()09 (一 ) ()s 一 . s 1 n 5 n 其Z 变换的传递 函数为 :

《基于i-vector的说话人识别的研究》范文

《基于i-vector的说话人识别的研究》范文

《基于i-vector的说话人识别的研究》篇一基于i-vector的说话人识别技术研究一、引言随着人工智能技术的不断发展,说话人识别技术已成为生物特征识别领域的重要研究方向之一。

i-vector技术作为一种有效的说话人识别方法,其准确性和鲁棒性在众多研究中得到了验证。

本文旨在探讨基于i-vector的说话人识别技术的研究,从算法原理、数据集、实验设计及结果等方面进行深入分析。

二、i-vector算法原理i-vector算法是一种基于高斯混合模型(GMM)的说话人识别方法,其核心思想是将说话人的语音特征表示为一个固定长度的向量。

该算法首先通过高斯混合模型将语音数据进行建模,提取语音数据的全局特征,然后将这些特征转换为固定维度的i-vector。

i-vector包含了说话人的独特信息,可以有效地用于说话人识别任务。

三、数据集本文采用的数据集为公开的语音数据集,包括不同语言、不同背景的语音数据。

数据集的选取对于说话人识别的准确性和鲁棒性至关重要。

在数据预处理阶段,需要进行语音信号的预加重、分帧、加窗等操作,以提取出高质量的语音特征。

四、实验设计本文通过实验验证了i-vector算法在说话人识别任务中的性能。

实验中,我们采用了不同的参数配置和特征提取方法,以找到最佳的模型参数和特征表示。

同时,我们还对比了其他说话人识别方法,如传统的基于声纹特征的识别方法和深度学习模型等。

五、实验结果与分析实验结果表明,i-vector算法在说话人识别任务中具有较高的准确性和鲁棒性。

我们通过对比不同参数配置和特征提取方法的性能,找到了最佳的模型参数和特征表示。

同时,我们还发现i-vector算法对于不同语言、不同背景的语音数据具有良好的泛化能力。

与其他说话人识别方法相比,i-vector算法在准确性和鲁棒性方面具有明显优势。

六、结论与展望本文研究了基于i-vector的说话人识别技术,通过实验验证了其性能和泛化能力。

i-vector算法通过高斯混合模型将语音数据进行建模,提取出固定维度的i-vector作为说话人的特征表示。

语音识别中的说话人识别技术研究

语音识别中的说话人识别技术研究

语音识别中的说话人识别技术研究语音识别在当今的科技领域中拥有广泛的应用,由于语音识别技术的不断发展,它已经成为人机交互领域中的一个重要组成部分。

语音识别技术可以使人们通过说话来与计算机互动,这为人们的工作和生活带来了许多便利。

然而,在实际应用中,因为每个人的声音都有差异,所以语音识别技术的准确性往往会受到说话人识别技术的影响。

而说话人识别技术是指在语音信号分析的基础上判断不同说话人身份的技术。

本文将从以下四个方面进行阐述:说话人识别技术的背景和概述、说话人识别技术的方法和原理、说话人识别技术的应用、说话人识别技术的发展方向。

一、说话人识别技术的背景与概述说话人识别技术的背景可以追溯到上个世纪60年代末,当时拉贝尔为解决电话线路上的欺骗问题,提出了基于语音中说话人区别的认证技术-说话人识别技术。

而在这之后的几十年里,随着语音处理技术的不断改进和深度学习技术的发展,说话人识别技术也得以更好地应用于语音识别、语音安全、语音助手、智能客户服务等领域。

说话人识别技术是一项可以自动辨别不同语音的身份的技术,说话人识别任务的基本就是寻找“当前语音实例所属的先前已知身份”。

在说话人识别中,要判断两条语音语素是否来自同一个说话人,就需要通过计算声音数据的特征向量来比较语素间的差异。

二、说话人识别技术的方法和原理在说话人识别技术中,主要有基于特征分离的方法和基于深度学习的方法两种。

基于特征分离的方法主要有声道特征提取(Vocal Tract Length Normalization,VTLN)和高斯混合模型。

VTLN把每一段语音信号处理成具有相同性质的语音信号,并控制声音的时长和音高,从而去除了说话人个体性带来的影响,实现对不同个体间语音信号的比较。

高斯混合模型方法,是一种比较常用的方法,它把一个说话人的声音特征向量聚类成高斯分布,通过高斯分布判别模型来进行说话人的辨识。

将每个说话人的特征向量都映射到对应的高斯分布后,再计算两个语音之间的转移概率,最后,再通过贝叶斯判决法来判断两个语音是否属于同一个说话人。

语音信号的提取与识别技术(说话人识别系统)的研究

语音信号的提取与识别技术(说话人识别系统)的研究

语音信号的提取与识别技术摘要语音识别(Speech Recognition)是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的技术.说话人识别是语音识别的一种特殊方式.本论文中,将主要介绍说话人识别系统.说话人识别是指通过说话人的语音来自动识别说话人的身份,它在许多领域内有良好的应用前景。

本文通过分析语音特征参数的特点和说话人识别的基本方法,提出了以美尔倒谱差分和线性预测差分为特征,通过动态时间归整算法来识别的文本相关说话人辨认系统。

关键词: 语音识别, 说话人识别, 线性预测倒谱,美尔倒谱系数,动态时间归整The pick-up of speech signal and speech recognitionAbstractSpeech Recognition is a kind of technology that is using computer to transfer the voice signal to an associated text or command by identification and understand. Speaker recognition is a kind of special way of V oice-identifications. The paper is going to introduce speaker recognition. Speaker recognition is the process of automatically recognizing who is speaking on the basis of individual information include in speech signals. It has well application prospects in many fields. By analyzing speech characteristic parameters and the basis methods of speaker recognition, we choose MFCC and LPCC's difference to be the speech characteristic parameters. Using DTW to recognize text-dependent speech, we have developed a speaker identification system in this paper.Key words:V oice-Identification, Speaker-identification LPCC,MFCC, Dynamic Time Warping目录1引言 (1)2 语音识别技术的基础 (2)2.1 语音识别发展简史 (2)2.2 语音识别技术的应用 (3)3 说话人识别技术的国内外研究现状 (5)3.1 国内外发展水平 (5)3.2主要应用领域 (5)3.3 技术难点 (6)4 说话人识别技术基础 (8)4.1 说话人识别的基本原理 (8)4.2说话人识别系统中常用的特征 (9)4.3 说话人识别的分类 (10)4.4 说话人识别的主要方法 (11)4.5 说话人识别系统的性能评价 (13)5 语音信号分析与预处理 (16)5.1 语音产生机理 (16)5.2 语音信号的数字化和采集 (17)5.3 语音信号的数字模型 (18)5.3.1激励模型 (18)5.3.2 声道模型 (18)5.3.3辐射模型 (20)5.4语音信号的预加重处理 (20)5.5语音信号的短时参数特征 (21)5.5.1短时频谱 (22)5.5.2短时自相关函数 (22)5.5.3短时能量和短时平均幅度 (22)5.5.4短时过零分析 (23)5.5.5倒谱 (24)5.5.6线性预测编码(LPC)参数 (24)5.5.7短时基音周期估计 (25)5.6语音信号端点检测 (27)5.6.1双门限端点检测算法 (28)5.6.2 LPC美尔倒谱特征端点检测方法 (28)6说话人特征提取 (32)6.1线性预测系数LPC (32)6.1.1线性预测的基本原理 (33)6.2.2线性预测系数的求取 (35)6.2线性预测倒谱系数LPCC (36)6.2.1同态处理基本原理 (36)6.2.2线性预测倒谱 (37)6.2.3线性预测差分倒谱 (38)6.3美尔倒谱系数MFCC (39)6.3.1 MFCC系数的提取 (39)6.3.2美尔差分倒谱参数 (40)6.4特征参数的实际提取 (41)6.4.1 LPCC参数计算流程 (41)6.4.2 MFCC的计算 (43)7.说话人识别系统实现 (46)7.1文本相关说话人辨认系统的实现 (46)7.2线性预测倒谱参数的提取实现 (47)7.3美尔倒谱系数及其差分的提取实现 (48)7.4MFCC参数文本相关系统实现 (51)8结论 (54)致谢 (55)参考文献 (56)1引言语言是人类交流信息的基本手段,在人们日益扩大的交流中占据着重要的地位.在如今高度发达的信息社会中用数字化的方法进行语音的传送、储存、识别、合成、增强等是整个数字化通信网中最重要、最基本的组成部分之一。

语音识别系统中的说话人识别技术研究

语音识别系统中的说话人识别技术研究

语音识别系统中的说话人识别技术研究近年来,随着人工智能的快速发展,语音识别技术得到了广泛应用。

而在语音识别系统中,说话人识别技术是一个重要的研究方向。

说话人识别技术旨在通过声音特征来识别不同个体的身份,具有广泛的应用价值,如语音助手、安全认证等领域。

本文将重点研究语音识别系统中的说话人识别技术,探讨其原理、方法和应用。

一、说话人识别技术原理说话人识别技术的原理基于人类语音信号中的个体差异,每个人的声音都有独特的频谱特征。

根据这一特点,说话人识别技术通过提取声音特征并进行比对,来判断不同个体的身份。

具体而言,其原理包括声纹提取、声纹匹配和分类识别三个关键步骤。

声纹提取是说话人识别技术的第一步,它通过特定的算法从语音信号中提取出能够代表说话人个体特征的声纹信息。

常用的声纹提取方法包括基于梅尔频率倒谱系数(MFCC)的特征提取、线性预测编码(LPC)和高斯混合模型(GMM)等。

声纹匹配是说话人识别技术的核心步骤,它通过对提取的声纹信息进行比对,计算不同声纹之间的相似度。

常见的声纹匹配方法有模板匹配、动态时间规整(DTW)和高斯混合模型(GMM-UBM)等。

这些方法可以通过计算相似度得到说话人之间的相似性分数,并进行身份识别。

分类识别是说话人识别技术的最后一步,它通过建立分类模型,将提取到的声纹信息与已知身份的声纹模板进行比对,判断说话人的身份。

常用的分类器包括支持向量机(SVM)、k近邻算法(k-NN)和多层感知机(MLP)等。

二、说话人识别技术方法在语音识别系统中,说话人识别技术可以根据特征提取方法和分类模型的不同,分为传统方法和深度学习方法两类。

1. 传统方法:传统的说话人识别方法主要基于统计模型,例如高斯混合模型(GMM)和隐马尔可夫模型(HMM)。

这些方法在声纹提取和声纹匹配中得到应用,通过建立模型对声音特征进行建模和比对,实现说话人身份的识别。

传统方法的优点是简单易懂、计算量小,但在面对高噪声环境和长时语音数据时效果较差。

说话人识别算法的研究

说话人识别算法的研究

波器组 的方 法计算 出来 的 , 将语 音 频 率划 分 成一 系
列三 角形 的滤波器 序 列 , 组滤 波 器 在频 率 的美 尔 这 ( 1坐 标 上 是 等 带 宽 的 。这 是 因 为 人 类 在 对 Me) 10 Hz 0 0 以下 的声 音 频率 范 围的 感 知遵 循 近 似线 性
实用 中得到 了较好 的效果 l 。 3 _
0 引言
建立 一个 说话 人 识别 系统 分为 两个 阶段 : 练 训 阶段 和识别 阶段 。在 训 练 阶段 , 统 的每 一 个使 用 系 者说 出若 干训练语 料 , 系统 根据 这些训 练语 料 , 通过
1 1 Me 倒谱参 数 ( C . l MF C) Me 频率倒谱 系数 ( C 是 在 频谱 上 采用 滤 l MF C)
训 练学习 建 立 每个 使 用 者 的模 板 或 模 型参 数 参 考 集 。而在识别 阶段 , 把从 待 识 别说 话人 说 出 的语 音 信号 中提取 的特征 参 数 , 在训 练 过 程 中得 到 的参 与 考参 量集 或模 型模 板 比较 , 且根 据 一定 相 似 性 准 并
则进行 判定 … 。说 话 人 辨识 时 , 与 测试 语 音 匹 配 取 距 离最小 的说话人 模型所 对应 的说话人 作为说 话人 辨识 的结 果 , 说话 人确认 时 , 用测 试语 音与所 声称 的
一) —一
∑ 臼 口一 旦 ( +
D, L— =

:1
() 3具有 很 强 的容 错 性
() 2
() 4 模式 层 的传 递 函数 可 以选 用 各 种 用来 估 计 概率 密 度 的核 函数 , 且 分 类 结果 对 核 函数 的形 式 并

数字音频处理中的说话人识别算法探究

数字音频处理中的说话人识别算法探究

数字音频处理中的说话人识别算法探究说话人识别是一种通过对数字音频信号进行分析和处理,识别出不同说话人的技术。

它在语音识别、语音合成、语音处理等领域中具有重要的应用价值。

本文将探究数字音频处理中的说话人识别算法,介绍其基本原理、常用方法以及应用前景。

首先,我们将介绍说话人识别算法的基本原理。

说话人识别的主要思想是通过提取音频信号中的特征,然后将其与存储在数据库中的说话人模型进行比对,从而识别出说话人的身份。

说话人模型通常是通过训练一组已知身份的音频样本得到的。

在识别过程中,算法会计算输入音频的特征,并与数据库中的模型进行比对,找到最匹配的说话人。

其次,我们将介绍常用的说话人识别算法。

目前,常用的说话人识别算法主要包括高斯混合模型(GMM)、支持向量机(SVM)和深度神经网络(DNN)等。

GMM是一种统计模型,它将说话人的声学特征建模为高斯分布,并通过最大似然估计来拟合模型参数。

SVM是一种基于机器学习的方法,它将训练数据映射到高维特征空间,并建立一个最优超平面来划分不同说话人。

DNN是一种基于神经网络的方法,它通过多层神经网络来建模说话人的特征,利用反向传播算法进行训练。

然后,我们将探讨这些算法的优缺点。

GMM在计算上相对简单,效果较好,但它对于说话人特征的建模有一定的限制。

SVM可以处理高维数据,具有较好的泛化能力,但在大规模数据集上的训练时间较长。

DNN可以提取更丰富的特征表示,对复杂的语音信号具有较好的适应性,但需要大量的训练数据和计算资源。

接下来,我们将讨论说话人识别算法的应用前景。

说话人识别技术在安全领域中有广泛的应用,可以用于身份认证、声纹密码等方面。

在语音识别领域,说话人识别可以被用于多用户语音识别系统中,识别不同说话人的语音,并根据其不同的语音特点进行个性化的语音识别。

此外,说话人识别还可以应用于电话客服系统、社交媒体分析等领域,提供更加个性化和精准的服务。

最后,我们总结说话人识别算法的重要性和挑战。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

说话人识别算法研究傅庚申 殷福亮(大连理工大学 电信学院 信号与信息处理专业 116023)摘要: 说话人识别是根据从说话人所发出的语音中提取出信息判断说话人身份的过程。

HMM能有效的用概率统计的方法描述时变语音信号。

本文用HMM实现了一个说话人识别的系统。

并在详细分析系统各部分关键算法的基础上,比较了MFCC和LPCC两种特征参数的性能。

关键词:说话人识别;Mel频标倒谱参数;矢量量化;隐含马尔可夫模型分类号:TN912.34Study on Speaker Identification AlgorithmFu Gengshen, Yin FuliangSchool of Electronic and Information Engineering, Dalian University of Technology, Dalian,P.R.China, 116023Abstract: Speaker identification can be made according to the information distilled from the voice of the speaker. Using probability method, HMM can effectively describe the real-time audio signal. This paper realizes a HMM-based speaker identification system. Based on the analysis of the key algorithms of the system in detail, the performances of MFCC and LPCC are compared.Key words: Speaker identification, Mel Frequency Cepstrum Coefficient (MFCC), Vector Quantization, Hidden Markov Model (HMM)1 引言说话人识别可以看作是语音识别的一种。

它和语音识别一样,都是通过对所收到的语音信号进行处理,然后据此做出判断,不同之处在于说话人识别希望从语音中提取不同说话人的特征,加以利用;而语音识别则力图减少同一语音对于不同说话人的差别。

说话人识别是通过对说话人语音信号的分析和特征提取,确定说话人是谁。

随着技术的不断发展,说话人识别的应用领域正在不断扩大,主要方面有:说话人核对、声控电子密码锁、司法取证、医学应用等。

说话人识别的方法和技术在近十几年来得到了迅速的发展。

说话人模型从单模板模型到多模板模型,从模板模型到VQ模型、高斯混合模型、隐含马尔科夫模型,到人工神经网络模型,识别环境从无噪声环境下少数说话人的识别到复杂噪声环境下大量说话人的识别,所采用的识别技术从仅涉及动态规划到涉及统计信号处理、最优估计理论、矢量量化与编码、模糊系统理论与方法、灰色系统分析、人工神经网络等多学科和领域的发展。

本文用HMM实现了一个说话人识别的系统。

并在此基础上比较了MFCC和LPCC 两种特征参数的性能。

2 说话人识别系统的基本结构说话人识别系统的基本结构如图1所示:若要实现说话人的识别,需要解决一下几个基本问题[3]:说话人特征的提取;说话人模型的建立和模型参数的训练;测试音与说话人模型的匹配距离计算;其中最关键的两个问题是提取什么样的特征和建立什么样的模型。

对这两个问题的算法解答就组成了一个说话人识别算法,而一个说话人识别系统的效果也是由这两部分决定的。

3 说话人识别算法3.1 预处理在对语音信号进行处理之前,首先要对语音信号进行一定的预处理,其中主要包括语音信号的预加重、分帧和加窗[1]。

(1)预加重预加重是一种重要的前处理技术。

语音信号频谱的高频部分的能量比较小,易受干扰。

为此,在分析语音信号之前,需对其高频部分进行增强。

另外,为了对数字化的语音信号进行平滑处理以及减少在以后的信号处理中受到有限精度的影响,也必须首先对语音信号进行预加重。

方法是使用一阶固定数字传输函数:1()10.95*H Z Z −=− (1)因此,预加重的输出结果n s %是由它的输入值n s 经下列方程式计算得出的:10.95*n n n s s s −=−% (2)(2)分帧取连续的N 个语音信号作为一帧。

对于8KHz 的采样频率,由于为了后续求取语音特征中进行FFT 变换方便,在本系统中采用32ms 为一帧,即N 为256。

为了保证特征矢量系数的平滑,帧与帧之间有部分样本重叠使用,本系统中两帧之间重叠12帧。

所以设M 为两个帧的取样间隔,即2128M N ==。

(3)加窗在语音帧的起始点,线性预测方法以零值预测非零值或以非零值预测零值时,一般都会使预测误差增大。

若对数据先作适当的加窗处理,可以减少预测误差。

一般采用加窗算法包括海明窗(Hamming Window)和汉宁窗(Hanning Window)。

本系统采用的是海明窗,海明窗(Hamming Window)定义为:()0.540.46*cos(2**1)),01w n n N n N π=−−≤≤− (3) 加窗后的样本数据变为:()*()w S x n w n = (4)3.2 特征提取每一说话人的语音信号即表征语音内容又表征说话人身份,在文本无关方式下,我们希望这些特征主要说话人特征而不是语音文本特征。

从语音信号中提取的说话人特征参数应满足以下准则:对局外变量(例如,说话人的健康状况、情绪、系统的传输特性)不敏感。

能长期地保持稳定。

易于对之进行测量和存储。

可经常表现出来。

把语音信号每一段看成是准周期脉冲或随机噪声激励一个线性时不变系统的输出,解卷积的方法将激励信号和系统冲激响应分开,可以得到倒谱系数。

它可以将信息量较小的峰值信息和更为重要的声道形状信息相分离,倒谱系数反映了声道的共振性能,它是目前普遍采用的说话人特征参数。

3.2.1 线性预测倒谱参数LPCC线性预测倒谱参数(Linear Prediction Cepstrum Coefficient ,LPCC) [10]是基于语音信号为自回归信号的假设,利用线性预测分析获得倒谱系数的一种倒谱特征。

计算出LPC 系数i a 以后,将i a 通过下面的递推公式转换到倒谱域即得到所需的LPCC 系数n C :1111(),1(),n n n i i n i n n n i i i C i n a C a n p C i n a C n p −−=−−=⎧=+≤≤⎪⎪⎨⎪=>⎪⎩∑∑ (5) 3.2.2 Mel 频标倒谱系数MFCCMel 频标倒谱系数(Mel Frequency Cepstrum Coefficient,MFCC) [10]。

该特征是在Mel 标度频率域中提取出来的倒谱参数,先将频谱转化为基于Mel 频标的非线性频谱,然后转换到倒谱域上。

MFCC 的提出基于下列两点事实:首先,人类对单个音调的感知强度近似的正比于该音调频率的对数。

Mel 频率表达了这种语音频率与“感知频率”的对应关系。

在Mel 频率域内,人对音调的感知度为线性关系,举例来说,如果两段语音的Mel 频率相差两倍,则人耳听起来两者的音调也相差两倍,Mel 频率与线性频率的转换公式为:102595log (1/700)Mel f f =+ (6)其次,人类并不能有效的分辨所有的频率分量。

只有当两个频率分量相差一定带宽时,人类才能将其区分。

这个带宽被称为临界带宽(Critical Bandwidth ),其计算公式如下:20.692575[1 1.4(/1000)]c c BW f =++ (7)其中c f 为中心频率。

根据上述两点便可以构造临界频带滤波器组(Critical Band Filter Bank )来模仿人耳的感知特性。

这组滤波器的中心频率在Mel 频率域内呈线性分布,其带宽在临界带宽之内。

表1是一组典型的临界频带滤波器参数。

表1 临界频带滤波器组参数表序号 中心频率(Hz ) 带宽(Hz ) 序号 中心频率(Hz ) 带宽(Hz )1 100 100 11 1149 1602 200 100 12 1320 1843 300 100 13 1516 2114 400 100 14 1741 2425 500 100 15 2000 2786 600 100 16 2297 320 7 700 100 17 2639 3678 800 100 18 3031 4229 900 100 19 3482 484 10 1000 100 20 4000 556 MFCC 参数的求取过程就是将原始信号通过一组临界频带滤波器组,然后转换到倒谱域的过程,其流程为:1.对输入语音帧加汉明窗后作快速傅利叶变换[9],将时域信号转化为频域信号。

2.把上步变换得到的频谱系数用序列三角滤波器进行滤波处理,得到一组系数1220,,Y Y Y L 。

滤波器组中每个三角滤波器的跨度在Mel 标度上是想等的。

所有滤波器总体上覆盖从0Hz 到采样频率的二分之一。

三角滤波器的中心频率和带宽由表3-1给出。

计算三角滤波器输出1220,,Y Y Y L 的公式如下:1111111ii i i F F i i i k k k F k F i i i i k F F k Y X X F F F F +−−+==+−+−−=+−−∑∑,1,2,,20i =L (8)其中k X 为频谱上第k 个频谱点的能量, i Y 为第i 个滤波器的输出, i F 为第i 个滤波器的中心频率。

3.用离散余弦变换[9]将滤波器输出变换到倒谱域:2011log()cos[()]224k j j C Y k j π==−∑,1,2,k p =L (9) 其中p 为MFCC 参数的阶数。

1,2,...,{}k k p C =即为所求的MFCC 参数。

MFCC 所用的距离量度也为欧氏距离。

由于充分模拟了人的听觉特性,而且没有任何前提假设,MFCC 参数具有识别性能和抗噪能力强等特点。

3.3 矢量量化矢量量化(Vector Quantization ,VQ )[4] [7]是一种极其重要的信号压缩方法,广泛应用于图像信号压缩、语音信号压缩等领域。

在语音信号数字处理的许多重要研究课题中,特别是低速语音编译码器和语音识别的研究中,VQ 都起着非常重要的作用。

在说话人识别中,VQ 也是一种重要的信号压缩和识别方法。

而VQ 码本设计直接关系到VQ 的量化质量。

目前生成码本最基本也是最常用的算法是LBG 算法,LBG 聚类算法是一个迭代的过程,总的思路是首先求出M 个矢量的中心矢量CEN 及C 个质心,然后按最临近原则将M 个矢量按质心分类,并求出总体失真,在归类的基础上求出新的质心,在进行归类,并求出新的总体失真。

相关文档
最新文档