说话人识别专业训练剖析

说话人识别专业训练剖析
说话人识别专业训练剖析

目录

第一章引言 (2)

第二章说话人识别系统的概述 (2)

1.说话人识别的基本原理 (2)

2.说话人识别系统图 (3)

3.说话人识别系统的分块介绍 (3)

4.训练模型 (12)

5.识别模块 (15)

第三章实验结果 (16)

第四章应用程序 (18)

第五章心得体会 (28)

参考文献

第一章引言

随着世界信息化进程的日新月异,人们在享受方便快捷信息的同时,对个人信息安全性的要求也日益提升。传统以密码为特征的身份认证技术易伪造、易丢失的弊端日益显露出来,越来越难以满足用户在高安全性和长安全性上的要求。在此基础上,基于生物特征识别的身份认证技术日益成为人们关注的焦点。目前,较为常用的生物特征认证方法有三种,分别是基于指纹、声纹、人脸的认证技术。

其中,声纹识别具有很大的优势。语音是人的自然属性之一,由于说话人发音器官的生理差异以及后天形成的行为差异,每个人的语音都带有强烈的个人特征色彩,这使得通过分析语音信号来识别说话人成为可能。

说话人识别系统属于生物识技术的一种,是一项根据语音波形中反映说话人生理和行为特征的语音参数识别说话人身份的技术。与语音识别不同的是,说话人识别利用的是语音信中的说话人信息,而不考虑语音中的字词意思,它强调一说话人的个性;而音识别的目的是识别出语音信号中的言语内容,并不考虑说话人是谁,它强共性。

第二章说话人识别系统的概述

一.说话人识别的基本原理

要实现说话人识别,应解决如下基本问题:

(1)语音信号的预处理和特征提取, 即提取能够有效表征说话人个性特征的参数。实际上现在采用的特征都是从语音信号模型中得到的, 它们既包含说话人的语音特征,又包含说话人的个性特征,并且相互交织在一起, 以复杂的形式存在于语音参数中,目前还没有建立起准确分离和提取这两种特征的技术。

(2)说话人模型的建立和模型参数的训练。这包括模型结构的表示和参数估计算法。

(3)测试音与说话人模型的匹配距离计算。实际上,采用的说话人模型结构对应于说话人识别的不同方法。随着技术的发展, 说话人识别的方法不断出现,包括矢量量化, 模板匹配法,隐马尔可夫模型,高斯混合模型, 人工神经网络方法等。

(4)识别或判决策略。根据匹配距离的计算结果判决说话人是否是所声称的说话人(说话人确认)或说话人到底是谁(说话人辨认)。

说话人识别的基本原理是为每一个说话人建立一个能够描述这一说话人个性特征的模型。在目前话音特征与说话人个性特征还未很好的从语音特征中得到分离的情况下,为每一个说话人建立的说话人模型实际是说话人的语音特征模型。在进行说话人识别时,

取与测试音匹配距离最小的说话人模型所对应的说话人作为说话人识别的结果。二.说话人识别系统图

说话人识别系统分为两个阶段:训练阶段和识别阶段。在训练阶段,系统根据每个使用者说出的若干训练语句建立相应的模型或模型参量参考集;而在识别阶段,在待识别人说的语音信号中导出的参量,要与在训练过程中得到的参考参量集或模型模板加以比较,并且根据一定的相似性准则进行判定。对于说话人辨认来说,所提取的参量要与训练过程中的每一个人的参考参量加以比较,并把与它距离最近的那个参考量所对应的使用者辨认为是发出输入语音的说话人。

说话人识别系统图如图1:

图1 说话人识别系统图

我们可以将一个说话人识别系统分成如下几个模块:预处理模块、特征提取模块、训练模块和识别模块等。

三.说话人识别系统的分块介绍

1.预处理模块

语音信号的预处理包括:预加重、端点检测、分帧和加窗。

(1)预加重

对于输入的语音信号,首先用低通滤波器滤掉高频部分以防止还原信号时在时域内产生混叠干扰,然后用高通滤波器抑制50HZ的电源干扰,这就是抗混叠失真滤波。依据Nyquist采样定理,用不低于2fa的采样频率对原始模拟信号采样,经过A/D转换得到数字信号。

由于语音信号的平均功率谱受声门激励和口鼻辐射的影响,高频端大约在800HZ 以上,按6dB/倍频程跌落,所以求语音信号频谱时,频率越高相应的信号成分越小,高频部分的频谱比低频部分难求,为此要进行预加重。预加重的目的是将更为有用的高频部分的频谱进行提升,使信号的频谱变得平坦,保持在低频到高频的整个频带内,能用同样的信噪比求频谱,以便于进行频谱分析或声道参数分析。预加重一般用具有6dB/倍频程的提升高频特性的数字滤波器来实现,其传递函数为:

()11--=s s H μ

其中μ为预加重系数,可取为1或比1稍小的值,一般取,μ=0.95。

(2)端点检测

端点检测的目的是从包含语音的一段信号中确定出语音的起点以及终点。有效地端点检测不仅能使处理时间减到最小,而且能排除无声段的噪声干扰,从而使识别系统具有良好的识别性能。目前的端点检测技术大都是基于语音信号的时域特征来进行的,一般采用两种时域特征:短时能量和短时过零率,通过设定它们的门限来进行检测。

短时能量序列反映了语音振幅随时间缓慢变化的规律。幅度随时间的变化,清音段一般比浊音段要小,可以用来区分清音段和浊音段;可以用来区分声母和韵母的分界,无声和有声的分界。短时能量定义为:

()()[]2

1

0m n W m X E N m n -∑=-= 令()()n w n h 2

=,则有: ()()m n h m X E N m n -?∑=-=2

1

0 语音信号的短时平均幅度为:

()()m n w m X M N m n -?∑=-=1

n E 和n M 都反映信号强度。

过零分析是考察信号时域波形通过时间轴的情况。对于离散时间信号,如果相邻的取样值符号改变则称为过零。过零数就是样本改变符号的次数,单位时间内的过零数称为平均过零数。对于窄带信号,平均过零数作为信号频率的一种简单度量是很精确的。语音信号()n X 的短时平均过零率定义为:

()[]()[]()m n w m x m x Z m n ---∑=∞-∞

=1sgn sgn

其中:()[]()()???<-≥=0

,1,0,1sgn n x n x m x ()n w 为窗口函数,其作用与求短时平均能量时一样。一般取

()?????-≤≤=else

N n N n w ,0,10,21 实际应用中常常用到短时过零率的修正参数,它是一帧语音波形穿越某个非零电平的次数。此电平适当地设置为一个接近零的值时,对于清音仍然有很高的值,而对于无声则很低。

短时能量和短时过零率都是随机参数,不同性质的语音各自有不同的概率分布。对于静音、清音和浊音三种情况,浊音的短时平均幅度大而短时过零率最低;清音的短时平均幅度居中而短时过零率最高;静音的短时平均幅度最低而短时过零率居中。它们的条件概率分布都接近于正态分布。

端点检测采用短时能量和过零率相乘的办法来判断。检测前,先要为短时能量和过零率确定两个门限,故称之为双门限端点检测。低能量门限取背景噪声平均能量的2倍,高能量门限取多帧语音数据的平均能量。将信号分为静音段、过渡段、语音段和结束段。在静音段,如果短时能量或过零率超过了低门限,就开始标记起始点,进入过渡段;在过渡段,如果两个参数值都回落到低门限以下,则又恢复到静音段;如果两个参数中的任一个超过了高门限,就表明进入语音段。在语音段,如果两个参数同时低于低门限,则进入结束段,并判断接下来的语音信号的静音帧数长短,长则继续扫描结束点,短则标记语音结束。当信号持续时间达不到一定时长时,则可以确定其为噪音,抛弃已经标记的起始点继续扫描。

下面为端点检测波形示意图,以便于理解。

语音信号的提取与识别技术——说话人识别系统的研究

毕业设计说明书 语音信号的提取与识别技术 ——说话人识别系统的研究 作者:学号: 学院(系): 专业: 指导教师: 评阅人: 20**年6月

中北大学 毕业设计(论文)任务书 学院、系: 专业: 学生姓名:学号: 设计(论文)题目:语音信号的提取与识别技术 起迄日期: 20**年2月15日~20**年6月21日 设计(论文)地点: 指导教师: 系主任: 发任务书日期:20**年2月15日

毕业设计(论文)任务书 1.毕业设计(论文)课题的任务和要求: 1.了解声音信号的特征参数,及现阶段研究处理方法。以现阶段信号处理领域比较活 跃的语音信号为具体研究对象,进行相关知识的了解与学习。 2.学会在语音信号处理中使用MATLAB软件工具。 3.针对基本的个别个体的特定声音进行与信识别研究。 4.根据研究情况利用MATLAB语言进行相关算法的实现。 2.毕业设计(论文)课题的具体工作内容(包括原始数据、技术要求、工作要求等): 1.查阅相关资料,利用已学的相关知识进行消化和理解。 2.了解现阶段的语音处理情况,分析研究相关的产品。 3.研究学习基本的识别处理方法。 4.学习相关信号处理软件。。 5.对软件的学习达到能对基本的算法进行软件的处理。 6.完成毕业设计论文。

毕业设计(论文)任务书 3.对毕业设计(论文)课题成果的要求〔包括毕业设计(论文)、图纸、实物样品等): 1、毕业论文一份; 2、英文文献1份,相应的中文译文1份。 4.毕业设计(论文)课题工作进度计划: 起迄日期工作内容 2006年 2月15日~ 3月31日4月 1日~ 5月31日6月 1日~ 6月20日6月20日~ 6月21日系统学习,查阅资料,作开题报告;英文资料翻译; 撰写毕业论文; 论文答辩。 学生所在系审查意见: 系主任: 年月日

说话人识别研究综述_王书诏

图1说话人识别系统框图 识别 训练 输入语音 预处理 特性 提取 相似性准则 判决 模型存储 模型产生 文章编号:1002-8684(2007)01-0051-05 说话人识别研究综述 王书诏,邱天爽 (大连理工大学电子与信息工程学院,辽宁大连116023) 【摘 要】说话人识别是语音信号处理中的重要组成部分,是当前的研究热点之一。详细介绍了说话人识别的基本 原理,从特征提取、模型训练和分类等几个方面就近年的主要研究情况进行综述和评价,并在此基础上探讨了研究难点和发展前景。 【关键词】说话人识别;特征提取;模型训练;分类【中图分类号】TN912 【文献标识码】A SurveyonSpeakerRecognitionWANGShu-zhao,QIUTian-shuang (DepartmentofElectronicEngineering,DalianUniversityofTechnology,DalianLiaoning116023,China)【Abstract】Speakerrecognitionisanimportantpartofthespeechsignalprocessing.Itisoneofthecurrentresearch hotspots.Theprinciplesofthespeakerrecognitionareintroducedindetail.Thelatestdevelopmentintheareasofthefeatureextraction,modeltrainingandclassificationisreviewedandthetrendandrubsarealsodiscussed. 【Keywords】speakerrecognition;featureextraction;modeltraining;classification ?综述? 1 引言 说话人识别作为生物认证技术的一种,是根据语 音波形中反映说话人生理和行为特征的语音参数自动鉴别说话人身份的一项技术[1]。因此,需要从各个说话人的发音中找出说话人之间的个性差异,这涉及到说话人发音器官、发音通道和发音习惯之间等不同级别上的个性差异。说话人识别是交叉运用心理学、生理学、语音信号处理、模式识别、统计学习理论和人工智能的综合性研究课题。 说话人识别根据实现的任务不同,可分为说话人辨认(speakeridentification)和说话人确认(speaker verification)两种类型[2];说话人识别根据系统对待识别语音内容的不同,又可分为与文本有关(text-dependent)和与文本无关(text-independent)两种方式[3] 。 2说话人识别的基本理论与前期处理 2.1 语音产生模型[4] 语音信号可以看成是激励信号UG(n)经过一个线性系统H(z)而产生的输出[4] 。其中,声道模型H(z)为 离散时域的声道传输函数,通常可用全极点函数来近似。不同的说话人其声道形状是不同的,因此具有不同的声道模型。H(z)表示为 H(z)=1A(z) = 11-p i=1!aiz -i (1) 其中p为全极点滤波器的阶数;ai(i=1,2,…,p)为滤波器的系数。p值越大,则模型的传输函数和实际声道传输函数的吻合程度就越高,当然p值也不能取得太大,一般情况下,p的取值范围为8~12[4]。 2.2说话人识别基本原理 图1为说话人识别系统框图。和语音识别系统一 样,建立和应用这一系统可分为两个阶段:训练阶段和识别阶段。在训练阶段,系统的每个使用者说出若干训练语句,系统据此建立每个使用者的模板或模型参量参考集;而在识别阶段,待识别说话人语音中导出的参量要与训练中的参考参量或模板加以比较,并且根据一定的相似性准则形成判断。 2.3预处理[5] 通常,输入的语音信号都要进行预处理,预处理过 程的好坏在一定程度上也影响系统的识别效果。一般 Voicetechnolog Y 语音技术

语音识别发展现状与展望

中国中文信息学会第七次全国会员代表大会 暨学会成立30周年学术会议 语音识别发展现状与展望中科院自动化研究所徐波 2011年12月4日

报告提纲 ?语音识别技术现状及态势?语音识别技术的行业应用?语音识别技术研究方向?结论与展望

2010年始语音识别重新成为产业热点?移动互联网的兴起成为ASR最重要的应用环境。在Google引领下,互联网、通信公司纷纷把语音识别作为重要研究方向 –Android系统内嵌语音识别技术,Google语音 翻译等; –iPhone4S 上的Siri软件; –百度、腾讯、盛大、华为等都进军语音识别领 域; –我国语音技术领军企业讯飞2010年推出语音云识别、讯飞口讯 –已有的QQ2011版语音输入等等

成熟度分析-技术成熟度曲线 ?美国市场调查咨询公司Gartner于2011年7月发布《2011新兴技术成熟度曲线》报告:

成熟度分析-新兴技术优先矩阵?Gartner评出了2011年具有变革作用的技术,包括语音识别、语音翻译、自然语言问答等。其中语音翻译和自然语言问答有望在5-10年内获得大幅利用,而语音识别有望在2-5年内获得大幅利用;

三十年语音识别技术发展 ---特征提取与知识方面?MFCC,PLP,CMS,RASTA,VTLN;?HLDA, fMPE,neural net-based features ?前端优化 –融入更多特征信息(MLP、TrapNN、Bottle Neck Features等) ?特征很大特点有些是跟模型的训练算法相匹配?大规模FSN图表示,把各种知识源集中在一起–bigram vs. 4-gram, within word dependencies vs. cross-word

说话人识别系统~

燕山大学 专业综合训练说明书 题目:说话人识别系统的设计 学院(系): 年级专业: 学号: 学生姓名: 指导教师: 教师职称:

燕山大学专业综合训练任务书 院(系):电气工程学院基层教学单位:仪器科学与工程系学号学生姓名专业(班级) 题目说话人识别系统的设计 训练内容 应用矢量量化法构建说话人识别系统,编写程序,实现对信号处理方法和仿真实验相结合的全面综合训练。 训练要求1.熟练掌握说话人特征参量及特征参数的提取方法。 2.熟练掌握Matlab编程方法。 3.掌握GUI的设计方法。 4.掌握模式匹配方法 5.完成系统构建,编写程序,实现对说话人身份的鉴别。 工作计划 第一周第二周第三周第四周 检索、查阅资料, 学习基础知识,构 建说话人识别整体 系统。 学习矢量量化法编写程序。 程序调试与撰写报 告。 参 考 资 料 Matlab方面资料、语音信号处理方面资料 答疑地点A203-1 答疑时间周六晚19点至22点;周日晚19点至22点。 指导教师签字基层教学单位主任签字 Tel:130******** 2012 年8月27日

目录 第1章摘要 (3) 第2章前言 (4) 第3章说话人识别系统设计相关知识 (5) 3.1 说话人识别基本原理 (5) 3.2 设计要求 (5) 3.3 结构设计 (5) 第4章设计方案 (7) 4.1 预处理模块 (7) 4.2 特征参数 (13) 4.3 训练模型 (17) 4.4 识别模型 (21) 第5章实验结果 (22) 第6章应用程序 (25) 心得体会 (28) 参考文献 (29)

说话人识别系统属于生物识别技术的一种,是一项根据语音波形中反映说话人生理和行为特征的语音参数识别说话人身份的技术。它是指通过说话人的语音来自动识别说话人的身份。目前,与文本无关的说话人识别的常用方法有很多,本文应用的是基于非参数模型的矢量量化VQ(VectorQuantization)方法。VQ在孤立词语音识别系统中得到了很好的应用,特别是有限状态矢量量化技术,对于语音识别更为有效。基于VQ的孤立词语音识别系统具有分类准确,存储数据少,实时响应速度快等综合性能好的特点。借助MATLAB工具,设计基于VQ码本训练程序和识别程序,识别特定人的语音。其系统处理过程主要是先对语音进行预加重、端点检测、分帧、加窗处理四个部分的处理,然后提取特征矢量参数(采用MFCC系数),然后对模版语音用矢量量化方法进行训练得到语音模版,最后用测试语音测试系统性能。其中系统的设计要分为预处理模块、特征提取模块、训练模块和识别模块等,各个部分结合在一起实现说话人识别功能。 关键词:训练,说话人识别, VQ ,MATLAB

基于说话人声音识别的技术研究语音识别技术

基于说话人声音识别的技术研究语音识别技术基于声音的说话人身份识别技术研究 通信1203班 成员:艾洲、刘安邦、汪中日 余文正、王玉贵、宁文静 xx-12-28 项目背景 伴随着全球化、网络化、信息化、数字化时代的到来,我们对高可靠性的身份验证技术与身份识别技术的需求也日益增长。 在生物学和信息科学高度发展的今天,根据人体自身的生 理特征(指纹、虹膜…)和行为特征(声音…)来识别身份的生物技术认证作为一种便捷、先进的信息安全技术已经在现实生活中得到广泛的应用,它是集光学、传感技术、红外扫描和计算机技术于一身的

第三代身份验证技术,能满足现代社会对于身份鉴别的准确性、安全性与实用性的更高要求。 而语音是人的自然属性之一,由于说话人发声器官的生理 差异以及后天形成的行为差异,每个人的语音都带有强烈的个人色彩,这使得通过分析语音信号来识别说话人成为可能。 设计总体框架 1.语音库的建立 2.声音样本采集 2.1 特征参数提取 2.2 识别模型建立 3.语音识别测试 梅尔倒谱系数(MFCC)简述

在话者识别方面,最常用到的语音特征就是梅尔倒谱系数(MFCC)。因为,根据人耳听觉机理的研究发现,人耳对不同频率的声波有不同的听觉敏感度,得出从200Hz到5000Hz的语音信号对语音的清晰度影响最大。 所以,人们从低频到高频这一段频带内按临界带宽的大小由密到疏安排一组带通滤波器,对输入信号进行滤波。将每个带通滤波器输出的信号能量作为信号的基本特征,对此特征经过进一步处理后就可以作为语音的输入特征。由于这种特征不依赖于信号的性质,对输入信号不做任何的假设和限制,又利用了听觉模型的研究成果。因此,这种参数比基于声道模型的“线性预测系数LPC”相比更好,更符合人耳的听觉特性,而且当信噪比降低时仍然具有较好的识别性能。 MFCC倒谱特征提取流图 1. 预加重 预加重处理其实是将语音信号通过一个高通滤波器:式中μ的值介于0.9-1.0之间,我们通常取0.97。预加重的目的是提升高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中,能用

说话人识别算法研究

说话人识别算法研究 傅庚申 殷福亮 (大连理工大学 电信学院 信号与信息处理专业 116023) 摘要: 说话人识别是根据从说话人所发出的语音中提取出信息判断说话人身份的过程。HMM能有效的用概率统计的方法描述时变语音信号。本文用HMM实现了一个说话人识别的系统。并在详细分析系统各部分关键算法的基础上,比较了MFCC和LPCC两种特征参数的性能。 关键词:说话人识别;Mel频标倒谱参数;矢量量化;隐含马尔可夫模型 分类号:TN912.34 Study on Speaker Identification Algorithm Fu Gengshen, Yin Fuliang School of Electronic and Information Engineering, Dalian University of Technology, Dalian, P.R.China, 116023 Abstract: Speaker identification can be made according to the information distilled from the voice of the speaker. Using probability method, HMM can effectively describe the real-time audio signal. This paper realizes a HMM-based speaker identification system. Based on the analysis of the key algorithms of the system in detail, the performances of MFCC and LPCC are compared. Key words: Speaker identification, Mel Frequency Cepstrum Coefficient (MFCC), Vector Quantization, Hidden Markov Model (HMM) 1 引言 说话人识别可以看作是语音识别的一种。它和语音识别一样,都是通过对所收到的语音信号进行处理,然后据此做出判断,不同之处在于说话人识别希望从语音中提取不同说话人的特征,加以利用;而语音识别则力图减少同一语音对于不同说话人的差别。说话人识别是通过对说话人语音信号的分析和特征提取,确定说话人是谁。随着技术的不断发展,说话人识别的应用领域正在不断扩大,主要方面有:说话人核对、声控电子密码锁、司法取证、医学应用等。 说话人识别的方法和技术在近十几年来得到了迅速的发展。说话人模型从单模板模型到多模板模型,从模板模型到VQ模型、高斯混合模型、隐含马尔科夫模型,到人工神经网络模型,识别环境从无噪声环境下少数说话人的识别到复杂噪声环境下大量说话人的识别,所采用的识别技术从仅涉及动态规划到涉及统计信号处理、最优估计理论、矢量量化与编码、模糊系统理论与方法、灰色系统分析、人工神经网络等多学科和领域的发展。 本文用HMM实现了一个说话人识别的系统。并在此基础上比较了MFCC和LPCC 两种特征参数的性能。

声纹识别

声纹识别系统 摘要 本文首先通过用层次分析法(AHP )构建了影响声纹识别的八大因素,并将其进行量化处理,得到了合理的权重比。同时构建Mel 倒谱系统提取说话人的主要特征倒频谱(MFCC 参数),利用提取的 MFCC 参数训练话者的 GMM (高斯混合模型),得到专属某话者的 GMM 声纹模型。接着通过语音数据对构建的声纹识别模型进行评价。发现得到的模型虽然可以接受,但其准确率不是很高。为了使模型的精确率提高,我们通过利用改进的K-means 算法来将模型进行调整。 问题一: 我们通过层次分析发得出语者的声学特征在语音识别中所占的权重最大,而且限于目前的技术,我们最终将能描绘语者声道结构的Mel 倒频谱系数作为语音的特征向量,该方法能很好的模拟人耳对不同频率的感知特性,具有很好的稳定性和准确度。然后我们利用matlab 编程将提供的语音数据的MFCC 系数提取出来作为声纹识别系统的训练样本。 问题二:基于高斯混合模型(GMM),我们用EM 算法来估计GMM 中的未知参数,由K-means 算法来得到EM 算法的初始值,通过不断地迭代EM 算法更新GMM 模型中的权重(w ),均值(u)和方差矩阵,直到最终使 ()*()P X P X λλε-<,ε取10-5。 问题三: 根据问题一的MFCC 模型和问题二的GMM 模型,利用matlab 编程,用样本语音数据去训练GMM 模型得到样本库,让后用未知的测试语音样本利用模式匹配法去与样本语音库进行匹配,得到一系列的匹配概率,概率最大者对应的语者为测试语音的主人。我们得出的结论是EM 算法的初值对最终的识别率有很大影响,用来确定GMM 初始值的K-means 算法有比较大的误差,需要改进。 问题四: 基于问题三的测试和查阅的相关资料,我们认为传统的K-means 算法忽略特征矢量各维分量对识别的影响,因而无法得到令人满意的识别结果。由数理统计知,方差是用来衡量样本数据的离散程度的。如果特征矢量的分布稀疏,则它的方差就会很大,反之,那些分布较集中的矢量方差比较小。为此,本文提出了基于方差的加权几何距离,在聚类过程中,对特征矢量的各分量按方差大小进行加权,加权因子为矢量方差的倒数。 关键字:声纹识别 层次分析法(AHP ) 美尓倒频谱系数(MFCC ) 高斯混合模型(GMM ) 期望值最大化算法(EM ) K-means 算法

说话人识别专业训练剖析

目录 第一章引言 (2) 第二章说话人识别系统的概述 (2) 1.说话人识别的基本原理 (2) 2.说话人识别系统图 (3) 3.说话人识别系统的分块介绍 (3) 4.训练模型 (12) 5.识别模块 (15) 第三章实验结果 (16) 第四章应用程序 (18) 第五章心得体会 (28) 参考文献

第一章引言 随着世界信息化进程的日新月异,人们在享受方便快捷信息的同时,对个人信息安全性的要求也日益提升。传统以密码为特征的身份认证技术易伪造、易丢失的弊端日益显露出来,越来越难以满足用户在高安全性和长安全性上的要求。在此基础上,基于生物特征识别的身份认证技术日益成为人们关注的焦点。目前,较为常用的生物特征认证方法有三种,分别是基于指纹、声纹、人脸的认证技术。 其中,声纹识别具有很大的优势。语音是人的自然属性之一,由于说话人发音器官的生理差异以及后天形成的行为差异,每个人的语音都带有强烈的个人特征色彩,这使得通过分析语音信号来识别说话人成为可能。 说话人识别系统属于生物识技术的一种,是一项根据语音波形中反映说话人生理和行为特征的语音参数识别说话人身份的技术。与语音识别不同的是,说话人识别利用的是语音信中的说话人信息,而不考虑语音中的字词意思,它强调一说话人的个性;而音识别的目的是识别出语音信号中的言语内容,并不考虑说话人是谁,它强共性。 第二章说话人识别系统的概述 一.说话人识别的基本原理 要实现说话人识别,应解决如下基本问题: (1)语音信号的预处理和特征提取, 即提取能够有效表征说话人个性特征的参数。实际上现在采用的特征都是从语音信号模型中得到的, 它们既包含说话人的语音特征,又包含说话人的个性特征,并且相互交织在一起, 以复杂的形式存在于语音参数中,目前还没有建立起准确分离和提取这两种特征的技术。 (2)说话人模型的建立和模型参数的训练。这包括模型结构的表示和参数估计算法。 (3)测试音与说话人模型的匹配距离计算。实际上,采用的说话人模型结构对应于说话人识别的不同方法。随着技术的发展, 说话人识别的方法不断出现,包括矢量量化, 模板匹配法,隐马尔可夫模型,高斯混合模型, 人工神经网络方法等。 (4)识别或判决策略。根据匹配距离的计算结果判决说话人是否是所声称的说话人(说话人确认)或说话人到底是谁(说话人辨认)。 说话人识别的基本原理是为每一个说话人建立一个能够描述这一说话人个性特征的模型。在目前话音特征与说话人个性特征还未很好的从语音特征中得到分离的情况下,为每一个说话人建立的说话人模型实际是说话人的语音特征模型。在进行说话人识别时,

语音信号的提取与识别技术(说话人识别系统)的研究

语音信号的提取与识别技术 摘要 语音识别(Speech Recognition)是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的技术.说话人识别是语音识别的一种特殊方式.本论文中,将主要介绍说话人识别系统.说话人识别是指通过说话人的语音来自动识别说话人的身份,它在许多领域内有良好的应用前景。本文通过分析语音特征参数的特点和说话人识别的基本方法,提出了以美尔倒谱差分和线性预测差分为特征,通过动态时间归整算法来识别的文本相关说话人辨认系统。 关键词: 语音识别, 说话人识别, 线性预测倒谱,美尔倒谱系数,动态时间归整

The pick-up of speech signal and speech recognition Abstract Speech Recognition is a kind of technology that is using computer to transfer the voice signal to an associated text or command by identification and understand. Speaker recognition is a kind of special way of V oice-identifications. The paper is going to introduce speaker recognition. Speaker recognition is the process of automatically recognizing who is speaking on the basis of individual information include in speech signals. It has well application prospects in many fields. By analyzing speech characteristic parameters and the basis methods of speaker recognition, we choose MFCC and LPCC's difference to be the speech characteristic parameters. Using DTW to recognize text-dependent speech, we have developed a speaker identification system in this paper. Key words:V oice-Identification, Speaker-identification LPCC,MFCC, Dynamic Time Warping

人耳检测和识别算法综述

关于人耳检测的文献 1 基于AdaBoost的侧面人脸、人耳检测 现今,人脸检测技术的局限性主要存在于侧面人脸检测这方面,本文主要利用人脸人耳的位置关系,用AdaBoost方法进行分别检测,最后人脸检测与人耳检测融合在一起,以提高人脸检测效率。 2 综合肤色模型和多模板匹配增强Adaboost人耳检测 为克服传统的Adaboost算法出现的样本训练时间过长、过于依赖样本质量等问题,在训练不足及初始人耳定位不好的情况下,引入YCbCr肤色模型和多模板匹配技术策略对人耳进行精确定位。实验表明,改进后的人耳检测性能得到较大的提高,对动、静态人耳均能达到准确定位和检测的效果,算法的鲁棒性较好。 3 基于肤色模型的人耳检测系统 人耳检测是人耳识别以及基于内容的图像和视频检索的一项重要任务。本文提出了一种将背景差分和肤色模型相结合的人耳检测算法。算法首先在序列图像中自动提取运动目标并进行人体检测,然后经过肤色分割进行人耳的粗定位,产生人耳候选区域。最后利用人耳检测模块判断候选区域中是否含有人耳,以及获得它们的位置、大小等信息。实验结果表明,该算法是有效的。 4 一种基于改进GVF Snake的自动人耳检测方法 近几年对人耳这种生物特征的研究大都只能依靠手工定位和分割人耳,这大大减缓人耳识别技术的实用化进程.文中提出一种人耳自动检测方法.该方法首先利用YCbCr肤色模型和Gentle AdaBoost级联分类器检测出人耳块,然后运用改进的GVF Snake方法提取外耳轮廓.该方法通过构造耳形图,提取非常接近于人耳实际边缘的初始轮廓线,不但节省迭代时间,还提高GVF Snake提取人耳边缘的准确率,在USTB人耳库上获得约97.3%的正确检测率.实验结果表明,该方法具有较好的检测效果和鲁棒性. 5 一种内外轮廓加权的人耳检测算法 为了提高人耳检测中图像匹配的精确性,提出对内外耳轮廓加权,并利用Hausdorff距离进行人耳检测的算法。在传统的Hausdorff距离匹配中,图像如果受噪声干扰或边缘不连续等情况,检测结果不理想。因此为使检测位置更加接近外耳轮廓,需要强调外耳轮廓的作用,这通过对外耳加大权值、对内耳加小权值实现,然后再结合加权Hausdorff距离进行图像匹配计算。仿真实验表明,提出的算法是有效的。相比传统Hausdorff距离和平均Hausdorff距离的匹配,人耳轮廓加权的算法更加精确。 6 基于梯度的ROI提取及人耳检测 利用人耳区域内梯度幅值较大这一特点,提出基于区域梯度的感兴趣区域

基于Matlab的说话人识别

目录 摘要 .................................................................................................................................. I Abstract .................................................................................................................................. I I 第一章引言 (1) 1.1 研究背景及意义 (1) 1.2 优势及应用前景 (1) 1.3 国内外研究现状 (1) 第二章说话人识别的基本原理 (3) 2.1 说话人识别基本知识 (3) 2.1.1 语音的发声机理 (3) 2.1.2 清音和浊音 (3) 2.1.3 语音信号模型 (3) 2.1.4 语音识别基本过程 (4) 2.2 预处理模块 (4) 2.2.1 采样 (4) 2.2.2 量化 (5) 2.2.3 预加重 (5) 2.2.4 加窗 (5) 2.3 特征提取模块 (6) 2.3.1 短时平均能量分析 (6) 2.3.2 短时平均幅度分析 (7) 2.3.3 短时过零率分析 (8) 2.3.4 短时自相关分析 (8) 2.3.5 LPC倒谱系数(LPCC) (9)

2.3.6 Mel频率倒谱系数(MFCC) (9) 2.4 训练和识别模块 (10) 2.4.1 矢量量化模型(VQ) (10) 2.4.2 隐马尔可夫模型(HMM) (11) 2.4.3 人工神经网络模型(ANN) (12) 2.4.4 HMM和ANN的混合模型 (13) 第三章基于Matlab的说话人识别 (14) 3.1 说话人识别系统平台介绍 (14) 3.2 语音采集模板(Speech Recording Plane) (14) 3.3 预处理模板(V oice Preprocessing Plane) (15) 3.4 特征提取模板(Feature Extraction Plane) (17) 3.5 训练识别模板(Speech Recognition Plane) (18) 第四章总结与展望 (25) 4.1 总结 (25) 4.2 展望 (25) 致谢 (27) 参考文献 (28) 附录 (29)

vq说话人辨识MATLAB程序

Train.m function code = train(traindir, n) % Speaker Recognition: Training Stage % % Input: % traindir : string name of directory contains all train sound files % n : number of train files in traindir % % Output: % code : trained VQ codebooks, code{i} for i-th speaker % % Note: % Sound files in traindir is supposed to be: % s1.wav, s2.wav, ..., sn.wav % Example: % >> code = train('C:\data\train\', 8); k = 16; % number of centroids required for i = 1:n % train a VQ codebook for each speaker file = sprintf('%ss%d.wav', traindir, i); disp(file); [s, fs] = wavread(file); *********************************************************** MFCC.m function r = mfcc(s, fs) % MFCC % % Inputs: s contains the signal to analize % fs is the sampling rate of the signal % % Output: r contains the transformed signal % % %%%%%%%%%%%%%%%%%% % Mini-Project: An automatic speaker recognition system % % Responsible: Vladan V elisavljevic % Authors: Christian Cornaz

语音识别技术文献综述

语音识别技术综述 The summarization of speech recognition 张永双 苏州大学苏州江苏 摘要 本文回顾了语音识别技术的发展历史,综述了语音识别系统的结构、分类及基本方法,分析了语音识别技术面临的问题及发展方向。 关键词:语音识别;特征;匹配 Abstact This article review the courses of speech recognition technology progress ,summarize the structure,classifications and basic methods of speech recognition system and analyze the direction and the issues which speech recognition technology development may confront with. Key words: speech recognition;character;matching 引言 语音识别技术就是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的高技术。语音识别是一门交叉学科,所涉及的领域有信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等,甚至还涉及到人的体态语言(如人民在说话时的表情手势等行为动作可帮

助对方理解)。其应用领域也非常广,例如相对于键盘输入方法的语音输入系统、可用于工业控制的语音控制系统及服务领域的智能对话查询系统,在信息高度化的今天,语音识别技术及其应用已成为信息社会不可或缺的重要组成部分。 1.语音识别技术的发展历史 语音识别技术的研究开始二十世纪50年代。1952年,AT&Tbell实验室的Davis等人成功研制出了世界上第一个能识别十个英文数字发音的实验系统:Audry系统。 60年代计算机的应用推动了语音识别技术的发展,提出两大重要研究成果:动态规划(Dynamic Planning,DP)和线性预测分析(Linear Predict,LP),其中后者较好的解决了语音信号产生模型的问题,对语音识别技术的发展产生了深远影响。 70年代,语音识别领域取得突破性进展。线性预测编码技术(Linear Predict Coding,LPC)被Itakura成功应用于语音识别;Sakoe和Chiba将动态规划的思想应用到语音识别并提出动态时间规整算法,有效的解决了语音信号的特征提取和不等长语音匹配问题;同时提出了矢量量化(VQ)和隐马尔可夫模型(HMM)理论。在同一时期,统计方法开始被用来解决语音识别的关键问题,这为接下来的非特定人大词汇量连续语音识别技术走向成熟奠定了重要的基础。 80年代,连续语音识别成为语音识别的研究重点之一。Meyers和Rabiner 研究出多级动态规划语音识别算法(Level Building,LB)这一连续语音识别算

语音识别文献综述

噪音环境下的语音识别 1.引言 随着社会的不断进步和科技的飞速发展,计算机对人们的帮助越来越大,成为了人们不可缺少的好助手,但是一直以来人们都是通过键盘、鼠标等和它进行通信,这限制了人与计算机之间的交流,更限制了消费人群。为了能让多数人甚至是残疾人都能使用计算机,让计算机能听懂人的语言,理解人们的意图,人们开始了对语音识别的研究. 语音识别是语音学与数字信号处理技术相结合的一门交叉学科,它和认知学、心理学、语言学、计算机科学、模式识别和人工智能等学科都有密切关系。 2.语音识别的发展历史和研究现状 2.1国外语音识别的发展状况 国外的语音识别是从1952年贝尔实验室的Davis等人研制的特定说话人孤立数字识别系统开始的。 20世纪60年代,日本的很多研究者开发了相关的特殊硬件来进行语音识别RCA实验室的Martin等人为解决语音信号时间尺度不统一的问题,开发了一系列的时问归正方法,明显地改善了识别性能。与此同时,苏联的Vmtsyuk提出了采用动态规划方法解决两个语音的时闻对准问题,这是动态时间弯折算法DTW(dymmic time warping)的基础,也是其连续词识别算法的初级版.20世纪70年代,人工智能技术走入语音识别的研究中来.人们对语音识别的研究也取得了突破性进展.线性预测编码技术也被扩展应用到语音识别中,DTw也基本成熟。 20世纪80年代,语音识别研究的一个重要进展,就是识别算法从模式匹配技术转向基于统计模型的技术,更多地追求从整体统计的角度来建立最佳的语音识别系统。隐马尔可夫模型(hidden Markov model,删)技术就是其中一个典型技术。删的研究使大词汇量连续语音识别系统的开发成为可能。 20世纪90年代,人工神经网络(artificial neural network,ANN)也被应用到语音识别的研究中,并使相应的研究工作在模型的细化、参数的提取和优化以及系统的自适应技术等方面取得了一些关键性的进展,此时,语音识别技术进一步成熟,并走向实用。许多发达国家,如美国、日本、韩国,已经IBM、Microsoft、Apple、AT&T、Nrr等著名公司都为语音识别系统的实用化开发研究投以巨资。 当今,基于HMM和ANN相结合的方法得到了广泛的重视。而一些模式识

浅谈说话人识别技术及应用分析

浅谈说话人识别技术及应用分析 引言:随着科学技术的快速发展,生物特征识别技术得到了越来越多的研究和应用, 说话人识别是语音识别的一种。它主要分为说话人辨认和说话人确认两个方面:前者是判断待识别语音是多个参考说话人中哪一个人所说,用于辨认说话者的身份,是一个多元判决问题;后者是说话人先声明身份(如输入用户号) ,然后由系统判定待识别语音是否与其参考声音相符,用于对特定人进行身份验证,是一个二元判决问题。说话人识别技术的发展始于60 年代,随着信息社会化发展,说话人识别作为具有语音识别与理解功能的智能人机接口,是新一代计算机的重要组成部分,其应用领域不断扩大:在司法领域中,可以帮助对嫌疑人的查证;在保安领域中,可以用于机密场所的进入控制、合法使用通信线路、机要设备的身份核查及电子银行转帐业务的安全检查等;在医学领域,如使识别系统仅响应患者的命令,则可实现对假肢的控制;在玩具、家用电器等领域也有广泛的应用前景。针对以上领域中的许多商用系统已经投入使用。 关键字:生物特征识别、系统判定、控制、应用前景 一、说话人识别技术基础 随着全球信息化的快速发展,电子商务等信息技术得到了广泛的应用,人们发现,传统的使用密码来认证用户的方法变的越来越脆弱。在这种背景下,解决用户高安全性和长效稳定性的生物认证技术逐渐得到人们的青睐。在众多的生物认证技术中,说话人识别技术以其信号采集简单、系统设备成本低等优点得到了快速发展,展现了广阔的应用前景。 说话人识别技术包括说话人辨认技术和说话人确认技术,他们在本质上是一致的,唯一不同的是说话人辨认技术是从多个说话人语音中辨认出某个人的那一段语音信息,而说话人确认技术是确定某段语音信息是不是某人所说。两者是一对多和一对一的关系。每个人的发音因为受到声道和发音特点等影响,总是存在一些代表自己特征的元素,说话人识别技术就是通过采集、提取这些表征说话人固有特征的参数来达到识别的目的。语音识别技术的应用有着非常多的优点,同时目前的研究也存在一些还没有突破的难点,但我相信,不久的将来,说话人识别技术一定会在我国的信息安全方面起到无以替换的重要作用。 1 特征提取 特征提取就是提取语音信号中表征说话人的基本特征,此特征应能有效地区分不同的说话人,且对同一说话人的变化保持相对稳定。提取的说话人的特征参数应满足相应的条件:对局外变量不敏感,如说话人的情绪的影响;能够长期地保持稳定;可以经常表现出来;易于对之进行测量,与其它特征不相关。 语音信号是一种携带着各种信息的非平稳的时变信号。在说话人识别系统中,首先我们需要对语音信号进行分析,提取特征参数。然后对语音信号进行预处理。语音信号经过预处理过后,会产生很大的数据量。在提取说话人特征时,就需要通过去除原来语音中的冗余信息来减小数据量。说话人识别技术中的测试音和训练语音都只有在经过特征提取后才能与说话人模型进行比较、匹配和模型训练。因此,特征提取是说话人识别技术中的关键步骤,其

说话人识别技术研究

说话人识别技术研究 马 建 郭建东 (电子科技大学计算机学院四川成都610054) 【摘 要】 说话人识别,是指通过说话人的语音来自动识别说话人的身份,它主要包括特征提取和模式匹配两个部分。随着计算机技术和人工智能的发展,通过说话人识别实现特定场合的实体鉴别已经具有非常重要的研究和应用价值。 【关键词】 说话人识别;说话人辨认;说话人确认 人类语言的产生是人体语言中枢与发音器官之间一个复 杂的生理物理过程,人在讲话时使用的发声器官———舌、牙齿、 喉头、肺、鼻腔在尺寸和形态方面每个人的差异很大,所以任何 两个人的声纹图谱都有差异。每个人的语音声学特征既有相 对稳定性,又有变异性,不是绝对的、一成不变的。这种变异可 能来自生理、病理、心理、模拟、伪装,也可能与环境干扰有关。 尽管如此,由于每个人的发音器官都不尽相同,因此在一般情 况下,说话人的鉴定仍能区别不同的人或法定是同一人的声 音,从而可以进行个人身份识别。 说话人识别(Speaker Recognition),根据应用环境不同可 分为两类,即说话人辨认(Speaker Identification)和说话人确认 (Speaker Verification)。说话人辨认是通过一段语音确认身份 的过程,在说话人辨认中,我们需要将待识声音和已知人群中 的每一个人的特征逐一进行比较,从中辨别出说话人,系统的决策选择数目为说话者的数目。因此,说话人辨认系统的性能是随着说话人集合的规模增大而降低。说话人确认是证实某一说话人是否是他所声称的身份的过程。在说话人确认中,只需将待识声音与注册说话人自己的模型比较,以确定是否是注册者本人的声音,系统只需给出正确或错误两种选择。因此,说话人确认系统的性能是与说话人集合的规模无关。两类系统的不同之处如表1所示。 表1 说话人识别的两类系统比较[1] 说话人辨认说话人确认 说话人未必合作说话人主动合作 存在发音伪装问题存在发音模仿问题 必须与N个已知模式进行比较只需与一个已知模式进行比较系统响应可以缓慢系统响应必须快速 词汇表可以各个不相同词汇表限于标准试验短语 通道特性可能不良或不同通道特性往往可以调整 信噪比可能太低信噪比通常可调 与语音识别不同的是,说话人识别利用的是语音信号中的说话人信息,而不考虑语音中的字词意思,它强调说话人的个性;而语音识别的目的是识别出语音信号中的言语内容,并不考虑说话人是谁,它强调共性。 说话人识别可能被用三种方式进行:文本相关的( Text-Dependent)、文本提示的(Text-Prompted)和文本无关的(Text -Independent)三种。与文本有关的说话人识别系统要求用户按照规定的内容发音,每个人的声音模型逐个被精确地建立,而识别时也必须按规定的内容发音,因此可以达到较好的识别效果,但系统需要用户配合,如果用户的发音与规定的内容不符合,则无法正确识别该用户。而与文本无关的识别系统则不规定说话人的发音内容,模型建立相对困难,但用户使用方便,可应用范围较宽。无论是与文本有关还是无关,系统都面临一个共同的问题,即无法区分一个声音是现场声音还是录音。但文本提示的说话人识别系统可以有效地避免这种情况发生。具体实现时,可采用随机或其他方法来生成提示文本,如随机的数字串或句子,以使假冒者无法事先录音。 在说话人辨认方面,根据待识别的说话人是否在注册的说话人集合内,说话人辨认可以分为开集(open-set)辨认和闭集(clo se-set)辨认。闭集的说话人辨认是指系统具有这样的先验知识;测试的说话人肯定是训练集中出现过的说话人。而开集的说话人辨认则指所测试的说话人还有可能是训练集中没有出现过的人。开集的说话人辨认和说话人确认通常都通过一个阈值来判断测试的说话人是不是在训练集中。 说话人识别系统主要包括两个部分:特征提取和模式匹配(如图1所示)。特征提取的任务是选取惟一表现说话人身份的有效且稳定可靠的特征;模式匹配的任务是对训练和识别时的特征模式进行相似性的匹配。 图1 说话人识别系统的典型结构 特征提取 说话人的模型不是由语音信号得到的,而是通过从语音信号中提取特征而得到的,是说话人语音特征的模型。测试音只有在经过特征提取后才与说话人的模型进行比较和匹配,训练语音也只有进行语音特征提取后才能得到其特征的模型,因此特征提取是说话人识别系统中的重要组成部分。 与计算机处理相对应,可以将人类的声音特征划分为以下三个层次:声道声学层次,在分析短时信号的基础上,抽取对通道、时间等因素不敏感的特征;韵律特征层次,抽取独立于声学、声道等因素的超音段特征,如方言、韵律、语速等;语言结构层次,通过对语音信号的识别,获取更加全面和结构化的语义信息。说话人识别系统主要针对较低层次的声道声学特征进行建模,主要有基音(Pitch)周期、共振峰(Format)、基于线性预测(Linear Predictive)的倒谱(Cep strum)、基于付氏变换的FFT 倒谱、基于语音信号的滤波器组分析的Mel倒谱和语音谱的过渡信息(Transitional In formation)等。 总之,较好的特征提取,应该能够有效地区分不同的说话人,但又能在同一说话人语音发生变化时保持相对的稳定;不易被他人模仿或能够较好地解决被他人模仿问题;具有较好的抗噪性能等等。 模式匹配 测试音的特征与说话人模型进行匹配,计算匹配距离。说话人确认时,只与所声称的说话人的模型进行匹配和匹配距离计算;说话人辨认时,与所有人的模型进行匹配和匹配距离计算。 目前针对各种特征而提出的模式匹配方法的研究越来越深入,大致可归为三类:基于非参数模型的方法、基于参数模型 8福 建 电 脑 2005年第1期

相关文档
最新文档