语音合成实验报告
人工智能语音合成工程师实习工作总结

人工智能语音合成工程师实习工作总结在这次的人工智能语音合成工程师实习中,我有幸参与了一个创新而又有挑战性的项目。
通过这段实习经历,我对于人工智能语音合成的原理、技术以及实际操作有了更深入的了解。
在这篇文章中,我将总结并分享我在实习期间的工作经验和心得体会。
一、项目背景本次实习项目的背景是开发一款能够实现自然、流畅语音合成的人工智能系统。
该系统旨在通过深度学习和语音信号处理技术,将文字转化为真实感人声,提供更好的语音交互体验。
我的工作主要集中在语音合成算法的研究和开发上。
二、项目实施1. 数据收集和处理针对语音合成的训练,我们首先需要大量的高质量语音数据。
我负责协助团队搜集和处理合适的语音数据集,并进行数据清洗和标注工作。
通过对不同音频数据的分析和筛选,我们最终得到了一份符合要求的、多样化的语料库。
2. 模型训练和优化为了实现优质音频的生成,我参与了深度神经网络模型的训练和优化工作。
在此过程中,我运用了深度学习框架,通过构建和调整不同的模型结构,对模型进行训练和优化。
同时,我还针对模型的超参数进行了调整,以提高合成语音的质量和流畅度。
3. 实时音频合成为了验证模型的效果,在训练阶段后期,我参与了实时语音合成的部署工作。
通过编写代码和调试,我成功将模型嵌入到应用程序中,并实现了高效且准确的实时语音合成。
三、遇到的问题和解决方案在实习期间,我也遇到了一些挑战和问题,但通过团队的协作和我的努力,这些问题都得到了解决。
1. 数据标注问题:在进行数据清洗和标注的过程中,我遇到了一些重复和异常数据。
为了解决这个问题,我采用了自动化的数据清洗方法,并进行人工验证,最终排除了问题数据,保证了最终语料库的质量。
2. 模型过拟合问题:在模型训练的过程中,我发现模型在训练集上具有较好的拟合效果,但在测试集上表现一般。
为了解决这个问题,我采取了正则化和数据扩增等方法来减少过拟合的问题,并且增加了更多的训练数据,以提高模型的泛化能力。
语音课实验报告

实验名称:语音识别与合成实验实验时间:2023年4月15日实验地点:语音实验室一、实验目的1. 了解语音识别与合成的基本原理和过程。
2. 掌握语音识别与合成系统的搭建和调试方法。
3. 提高语音处理和语音识别的实践能力。
二、实验原理语音识别与合成技术是人工智能领域的一个重要分支,主要涉及语音信号处理、模式识别和自然语言处理等方面。
语音识别是将语音信号转换为相应的文本信息,而语音合成则是将文本信息转换为自然流畅的语音输出。
三、实验内容1. 语音信号采集实验采用麦克风采集语音信号,将采集到的语音信号进行预处理,包括去除噪声、归一化等操作。
2. 语音特征提取从预处理后的语音信号中提取特征,如梅尔频率倒谱系数(MFCC)、线性预测系数(LPC)等,为后续的语音识别和合成提供依据。
3. 语音识别利用训练好的语音识别模型对采集到的语音信号进行识别,将识别结果输出为文本信息。
4. 语音合成将识别出的文本信息转换为语音输出,包括合成语音的音调、音量、语速等参数的调整。
四、实验步骤1. 语音信号采集(1)连接麦克风,确保设备正常工作。
(2)打开录音软件,调整录音参数,如采样率、量化位数等。
(3)进行语音采集,确保采集到的语音信号清晰、无杂音。
2. 语音特征提取(1)对采集到的语音信号进行预处理,包括去除噪声、归一化等操作。
(2)提取语音特征,如MFCC、LPC等。
3. 语音识别(1)使用已有的语音识别模型进行训练,如使用隐马尔可夫模型(HMM)或深度学习模型。
(2)将训练好的模型应用于采集到的语音信号,进行语音识别。
4. 语音合成(1)使用语音合成引擎,如FreeTTS、MaryTTS等,将识别出的文本信息转换为语音输出。
(2)调整合成语音的音调、音量、语速等参数,使语音输出更自然。
五、实验结果与分析1. 实验结果本次实验成功采集了语音信号,并提取了相应的语音特征。
通过语音识别,识别出了采集到的语音信号对应的文本信息。
声音合成实验报告总结(3篇)

第1篇一、实验背景声音合成是现代音乐制作、音频处理等领域中非常重要的技术之一。
通过声音合成,我们可以模拟出各种不同的声音效果,如乐器音色、自然音效等。
本次实验旨在通过搭建一个简单的声音合成系统,探究声音合成的原理和方法,并验证实验结果。
二、实验目的1. 了解声音合成的原理和方法;2. 掌握使用软件实现声音合成的操作步骤;3. 通过实验验证不同参数对合成声音的影响;4. 分析实验结果,总结声音合成的技巧。
三、实验原理声音合成的基本原理是将复杂的音色分解成若干个简单的音色元素,然后通过调整这些音色元素的参数,合成出所需的音色。
常见的声音合成方法包括:1. 波表合成:通过查找预先录制的音色样本,合成所需的音色;2. FM合成:利用频率调制技术,模拟出各种乐器的音色;3. 波形合成:通过改变波形参数,合成出各种音色。
四、实验步骤1. 准备实验设备:电脑、音频软件(如Cubase、FL Studio等)、音频接口、麦克风等;2. 选择合适的音色库:根据实验需求,选择合适的音色库;3. 设置合成参数:根据实验要求,设置波形合成、FM合成或波表合成的参数;4. 进行实验:使用音频软件合成所需音色,并进行调整;5. 采集实验数据:记录不同参数下合成声音的音色、音质等信息;6. 分析实验结果,总结声音合成的技巧。
五、实验结果与分析1. 波形合成实验:(1)通过调整波形参数,可以合成出各种音色,如钢琴、吉他、鼓等;(2)改变波形振幅、频率、相位等参数,可以调整音色的高低、强弱、音色纯度等;(3)实验结果表明,波形合成在音色合成方面具有较好的表现。
2. FM合成实验:(1)通过调整频率调制参数,可以模拟出各种乐器的音色;(2)改变调制指数、频率比等参数,可以调整音色的高低、音色纯度等;(3)实验结果表明,FM合成在模拟乐器音色方面具有较好的表现。
3. 波表合成实验:(1)通过查找音色库中的样本,可以合成出各种音色;(2)调整音色样本的播放速度、音量等参数,可以调整音色的高低、强弱等;(3)实验结果表明,波表合成在音色合成方面具有较好的表现。
关于语音合成方法的调查报告

关于语音合成方法的调查报告摘要:本文是一篇关于语音合成方法的调查报告,在搜集整理大量相关文献的基础上,简要的总结了几种常用的语音合成方法,讨论各种合成方法的原理及算法,并简要分析各种合成方法的性能及适用场合。
关键词:语音合成;种类;原理;算法;性能正文语音合成技术是利用电脑, 按规定的程序和指令, 人为产生语音的技术。
语音合成从技术方式讲可分为波形合成、参数分析合成以及规则合成等三种。
1、波形合成波形合成法一般有两种形式。
一种是波形编码合成,它类似于语音编码种的波形编解码法,该方法直接把要合成的语音的发音波形进行存储或者进行波形编辑压缩后存储,合成重放时再解码输出,称PCM波形合成法。
另一种是波形编辑合成,他把波形编辑技术用于语音合成,通过选取音库中采取自然语言的合成单元的波形,对这些波形进行编辑拼接后输出。
1.1 波形编码合成基本原理:波形编码合成方法以语句、短语、词或音节为合成单元,这些单元被分别录音后直接进行数字编码,经适当的数据压缩,组成一个合成语音库。
重放时,根据待输出的信息,在语音库中取出相应单元的波形数据,串接或编辑在一起,经解码还原出语音。
性能分析:波形编码语音合成技术用原始语音波形替代参数,而且这些语音波形取自自然语音的词或句子,它隐含了声调、重音、发音速度的细微特性,也叫录音编辑合成,合成单元越大,合成的自然度越好,其质量普遍高于参数合成。
且系统结构简单,价格低廉。
但合成语音的数码率较大,存储量也大,因而合成词汇量有限。
通常只能合成有限词汇的语音段。
目前用于自动报时、报站和报警等。
1.2 波形编辑合成基本原理:波形编辑合成方法将波形编辑技术用于语音合成,通过选取音库中采取自然语言的合成单元的波形,对这些波形进行编辑拼接后输出。
它采用语音编码技术,存储适当的语音基元。
合成时,经解码、波形编辑拼接、平滑处理等输出所需的短语、语句或段落。
算法简述:80年代末E.Moulines和F.Charpentier提出基于时域波形修改的语音合成算法。
声音合成的实验报告

声音合成的实验报告引言声音合成是一种通过模拟自然声音或生成人工声音的技术,通过使用声音合成器或数字信号处理器来生成声音信号。
声音合成在多个领域有着广泛的应用,包括音乐产业、语音合成、游戏设计等。
本实验旨在探究声音合成技术的原理和应用。
实验目的1. 了解声音合成的基本原理;2. 掌握声音合成的常用方法和技术;3. 熟悉声音合成器的使用;4. 分析声音合成的应用领域。
实验过程1. 声音合成的基本原理声音合成的基本原理是通过调节频率、振幅、持续时间和波形等参数来模拟声音信号。
常用的声音合成方法包括加法合成、减法合成和物理模拟等。
加法合成是通过将多个简单的波形叠加在一起来生成复杂的声音。
这些简单的波形包括正弦波、方波、锯齿波等。
通过调节每个波形的频率、振幅和相位,可以产生丰富多变的声音。
减法合成是通过从复杂波形中减去一些成分来生成声音。
这种方法常用于合成乐器音色、人声等。
物理模拟是通过模拟物体的振动和共鸣特性来产生声音。
这种方法常用于合成真实乐器的声音。
2. 声音合成器的使用在实验中,我们使用了一款声音合成器软件来生成声音信号。
该软件提供了丰富的合成方法和参数调节选项。
首先,我们选择了加法合成方法,并设置了频率、振幅和波形参数。
通过调节这些参数,我们可以听到不同的声音效果。
接下来,我们尝试了减法合成方法。
选择了复杂的波形作为基准波形,并减去一些成分来调整声音的特性。
通过逐步调整减去的成分,我们成功合成了近似真实的人声。
最后,我们尝试了物理模拟方法。
通过模拟琴弦振动的特性,我们成功合成了类似于钢琴音的声音。
3. 声音合成的应用领域声音合成在音乐产业、语音合成、游戏设计等领域有着广泛的应用。
在音乐产业中,声音合成被广泛用于合成器、音频插件和音乐软件中,用于创作和演奏各种音乐作品。
在语音合成中,声音合成技术能够将文字转化为语音,广泛应用于语音助手、自动应答系统和阅读辅助设备等。
在游戏设计中,声音合成技术可以为游戏角色和特效音效提供丰富多样的声音效果,增强游戏的沉浸感和真实感。
人工智能语音合成实验报告

人工智能语音合成实验报告引言:"语音是灵魂的音符,而人工智能是它的化身。
"——乔治.伯纳德·肖人工智能(AI)的不断发展为我们带来了许多前所未有的技术突破和应用创新。
语音合成作为AI的重要组成部分,为我们实现文本转语音的功能提供了广阔的可能性。
本实验报告将详细介绍人工智能语音合成实验的过程和结果。
实验目的:本实验旨在探索人工智能语音合成技术的发展趋势,并评估其在不同应用领域的效果。
通过实验,我们希望了解语音合成的原理、技术特点以及与自然人声之间的差异。
实验方法:1. 数据采集:首先,我们收集了大量的文本数据作为语音合成的输入。
这些数据包括新闻报道、网络文章、书籍等不同类型的文本。
2. 模型训练:使用深度学习算法,我们训练了一个语音合成模型。
训练过程中,我们通过将文本数据与与其相对应的音频数据进行对齐,以便模型能够学习到相应的语音特征。
3. 参数调优:为了提高语音合成的质量,我们不断尝试调整模型的参数,改进模型的表现。
通过反复试验和比较,我们最终找到了最适合的参数设置。
4. 语音合成:将待合成的文本输入已经训练好的模型中,通过模型的输出,生成对应的语音。
将生成的语音进行保存和评估,并与自然人声进行对比。
实验结果:通过我们的语音合成实验,我们发现现有的人工智能语音合成技术已经取得了令人瞩目的成果。
合成的语音质量和流畅度已经能够达到接近自然人声的程度。
在不同应用场景中,如语音助手、有声图书、电话客服等,人工智能语音合成技术都展现出其巨大的潜力和应用空间。
然而,我们也发现在某些特定情况下,语音合成系统仍然存在一些挑战和局限性。
在处理含有特定方言、口音或特殊声音的文本时,语音合成系统可能会出现误识别或合成不准确的问题。
此外,在情感表达和语气调侃等方面,语音合成系统的表现还有待进一步的改进。
结论:通过这次实验,我们对人工智能语音合成技术有了更深入的了解,并展望了其未来的发展趋势。
语音合成语料库技术报告

语⾳合成语料库技术报告语⾳合成语料库TH-CoSS技术报告清华⼤学计算机科学与技术系⼈机交互与媒体集成研究所2003.12.语⾳合成语料库技术报告(TH-Corpus of Speech Synthesis)0.前⾔在语⾳合成技术⽇益成熟⾛向市场的今天,作为语⾳合成的基础的语⾳合成语料库扮演着越来越重要的⾓⾊。
作为语⾳合成和语⾳分析的物质基础,建⽴设计合理、⾼质量录⾳的语⾳语料库有着极为重要的研究价值和实⽤价值。
本语⾳合成语料库(TsingHua - Corpus of Speech Synthesis, 简称TH-CoSS)是由清华⼤学⼈机交互与媒体集成研究所完成。
该语料库可以⽤于语⾳合成的研究、开发和评测。
根据研究、开发和市场的需要,本⽂简要介绍本语料库的设计与使⽤。
第⼀部分语⾳合成语料库的设计该语⾳合成语料库由四部分组成:普通话TTS系统语料库,为汉语普通话朗读语句,男⼥声各1⼈,共约10000句。
普通话TTS系统测试语料库,为汉语普通话朗读语句,男⼥声各1⼈,约2000句。
普通话语调分析⽤数据,⾃然对话语句,多于1000句,覆盖多种语调和语⽓。
连续语流篇章语⾳数据库,选⾃⼴播或电视,以汉语标准普通话为主。
下⾯分别就其设计思想进⾏介绍,重点介绍普通话TTS系统语料库和普通话语调分析⽤语料库的设计与建⽴。
1.1普通话TTS系统语料库设计TTS系统建库语料语句以陈述句为主, 长度为5-25个⾳节,其中男声4535句,⼥声5406句。
此外语料库还包含⼀定数量的轻声、⼉化⾳节组,以及上声单⾳节汉语⾳节表。
1.1.1 设计⽤语料我们针对基于⼤语料库汉语语⾳合成系统的需求,进⾏语⾳合成⽤语料库的设计。
其原始语料来⾃《现代汉语词典》和2000年全年的⼈民⽇报,并且参考了国家语委公布的必读轻声和⼉化词表。
1.1.2 设计原则1.1.2.1⽂本设计的⽬的和要求语料库的设计是指选取语⾳数据的内容或选取录⾳⽂本。
LPC语音合成实验报告

LPC语音合成实验报告LPC (Linear Predictive Coding) 语音合成是一种基于线性预测编码的语音合成方法。
LPC语音合成算法对语音信号进行建模,通过预测当前样本点的值,利用已知的前期样本点和预测误差来合成语音。
本实验主要研究LPC语音合成的原理以及实现方法,并通过实验评估其合成效果。
一、LPC语音合成原理1.数据准备:从语音信号中提取出一段合适的语音样本。
通常情况下,音频数据需要进行预加重和帧分析处理。
2.参数提取:将每一帧的语音信号进行分析,并提取出LPC参数。
LPC参数的计算过程包括自相关函数的计算、Levinson-Durbin递推算法的运用以及LPC系数的计算。
3.预测误差计算:利用LPC参数对当前样本点进行预测,并得到预测误差。
通过对预测误差进行重建和合成,得到合成语音。
二、LPC语音合成方法1.线性预测编码方法提供了一种对语音信号建模的思路。
通过线性滤波器对语音信号进行预测,得到预测信号和预测误差。
然后利用已知的前期语音样本点和预测误差来合成语音。
2.LPC语音合成方法的关键是参数提取。
通过对语音信号进行分析,可以从每一帧语音信号中提取出LPC系数。
这些LPC系数可以用于预测当前样本点的值,并得到预测误差。
3.采用Levinson-Durbin算法可以高效地计算出LPC系数。
Levinson-Durbin算法是一种递推算法,利用前一个阶数的LPC系数计算出当前阶数的LPC系数,直到求得所需阶数的LPC系数为止。
三、实验结果及分析本实验利用MATLAB软件实现了LPC语音合成算法,并进行了合成效果的评估。
在实验中,首先从语音信号中选取一段合适的语音样本,并进行预处理和帧分析。
然后,利用Levinson-Durbin算法计算出LPC系数,并对语音信号进行合成。
最后,通过主观听觉评估和客观评价指标评估合成语音的质量和相似度。
实验结果表明,LPC语音合成算法可以实现对不同语音信号的合成。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
单位样值响应图像如下:
Impulse Response (impz) 1.5
1
0.5
Amplitude
0
-0.5
-1
-1.5
0
20
40
60
80
100 120 n (smples)
140
160
180
200
频率响应图像如下:
40
Magnitude (dB)
20
0
-20
0
0.1
0.2
0.3 0.4 0.5 0.6 0.7 0.8 Normalized Frequency ( rad/sample)
练习题: 1.2.1 语音预测模型: (1) 给定 e(n) = s(n) –a1s(n-1)-a2s(n-2) 假设 e(n)是输入信号,s(n)是输出信号,上述滤波器的传递函数是什么?如果 a1 = 1.3789, a2 = -0.9506,上述合成模型的共振峰频率是多少?用 zplane,freqz,impz 分别绘 出零极点图,频率响应和单位样值响应。用 filter 绘出单位样值响应,比较和 impz 的是否相同。 答:按照 e(n)的表达式,两边进行 z 变换可得: 1 H(z) = 1−a 1 z −1 −a 2 z −2 当 a1 = 1.3789,a2 = -0.9506 时,利用 tf2zp 函数可以得出 H(z)的极点为:p1 = 0.6895+0.6894i, p2 = 0.6895-0.6894i,因为极点为一对共轭复数,故共振频率有一个, 即为此共轭复数的幅角的绝对值除以相应的系数,通过程序计算可得,共振系数为 f = 999.9447Hz,以下为命令窗的显示: Transfer function: 1 -----------------------------------1 - 1.379 z^-1 + 0.9506 z^-2 Sampling time: unspecified f= 999.9447 实现代码如下: clear all; close all; clc; a1 = 1.3789; a2 = -0.9506; a = [1,-a1,-a2]; b = 1; sys = tf(b,a,[],'Variable','z^-1'), %获取系统的传递函数 n = [0:199]'; [z,p,k] = tf2zp(b,a); f = angle(p(1))/2/pi*8000,
实验二 语音合成
背景知识: 从物理原理来看,语音信号是由肺挤压出的空气激励发声器官振动产生的。说 话时声带相互靠拢但不完全封闭,这样声门变成一条窄缝,当气流通过时其间压力 减小,从而声带完全合拢使气流不能通过;在气流被阻断时压力恢复正常,因而声 带间形成空隙,气流再次通过。这一过程周而复始,就形成了一串周期性的脉冲气 流送入声道。如图 1 所示。这个脉冲串的周期称为“基音周期” ,其倒数是“基音 频率” 。 男性说话时的基音频率在 60-200Hz 范围内, 女性和小孩在 200-450Hz 之间。 以上这种方式发出的音就是浊音。
(2) 阅读 speechproc.m 程序,理解基本流程。程序中已经完成了语音分帧,加窗, 线性预测和基音周期提取等功能。 注意:不要求掌握线性预测和基音周期提取的算法 原理。 答:已完成。 (3)运行该程序到 27 帧时停住,用(1)中的方法观察零极点分布图。 答:程序中实现代码的部分如下: if n == 27 % (3) 在此位置写程序,观察预测系统的零极点图 zplane(A,1); title('零极点分布图'); end 得到的零极点分布图如下:
Amplitude
0
20
40
60
80
100 120 n (samples) Comparison
11 -2 impz filter
Amplitude
0
20
40
60
80
100 120 n (samples)
140
160
180
200
从第 2 幅图可以看出,两个函数绘出的结果完全重合,说明得到的结果相同。
xlabel('n (samples)'); ylabel('Amplitude'); subplot(3,1,3); stem(s_rec/max(s_rec),'Marker','none'); title('signal s_rec'); xlabel('n (samples)'); ylabel('Amplitude'); figure; %绘出三个信号在1000-1200之间的波形 subplot(3,1,1); stem(s(1000:1200)/max(s(1000:1200)),'Marker','none'); title('signal s'); xlabel('n (1000-1200)'); ylabel('Amplitude'); subplot(3,1,2); stem(exc(1000:1200)/max(exc(1000:1200)),'Marker','none'); title('signal exc'); xlabel('n (1000-1200)'); ylabel('Amplitude'); subplot(3,1,3); stem(s_rec(1000:1200)/max(s_rec(1000:1200)),'Marker','none'); title('signal s_rec'); xlabel('n (1000-1200)'); ylabel('Amplitude'); end 试听得到的三段语音中,exc 信号较为模糊,噪声较大,但是能够分辨出讲话的内 容,而重建的语音信号 s_rec 与原来的语音信号 s 几乎没有发现区别,可见此法重 建的效果十分显著,同时通过 plot_task1 我也得到了三个信号的波形,从图像中也 能够直观的看出三个信号的联系与区别。 从图像中可以发现,s_rec 和 s 的波形几乎重合,从而重建后的语音能够如此逼真, 而激励信号 exc 只是保留了 s 的基本特征,如峰值的位置,波长,信息缺失严重, 然而,只要本质的信息保存下来,便不会影响重建语音信号的准确度,因为收发双 方均知道预测系数{ai},使得还原的声音能够高度精确,这样便达到能够节省带宽等 效果。
零极点分布图 1 0.8 0.6 0.4
Imaginary Part
0.2 0 -0.2 -0.4 -0.6 -0.8 -1 -1 -0.5 0 Real Part 0.5 1 10
(4) 在循环中添加程序:对每帧语音信号 s(n)和预测模型系数{ai},用 filter 计算激励 信号 e(n)。注意:在系数变化的情况下连续滤波,需维持滤波器的状态不变,要利 用 filter 的 zi 和 zf 参数。
答:程序中代码实现部分如下: s_f = s((n-1)*FL+1:n*FL);
% 本帧语音,下面就要对它做处理
% (4) 在此位置写程序,用filter函数s_f计算激励,注意保持滤波器状态 [Y_exc,zi_pre] = filter(A,1,s_f,zi_pre); exc((n-1)*FL+1:n*FL) = Y_exc; %将你计算得到的激励写在这里 (5) 完善 speechproc.m 程序,在循环中添加程序:用你计算得到的激励信号 e(n)和 预测模型系数{ai},用 filter 计算重建语音s(n)。同样要注意维持滤波器的状态不变。 答:程序中实现代码部分如下: % (5) 在此位置写程序,用filter函数和exc重建语音,注意保持滤波器状态 exc_f = exc((n-1)*FL+1:n*FL); [Y_rec,zi_rec] = filter(1,A,exc_f,zi_rec); s_rec((n-1)*FL+1:n*FL) = Y_rec; %将你计算得到的重建语音写在这里 (6)在循环结束后添加程序: 用 sound 试听(6)中的 e(n)信号, 比较和 s(n)以及s(n)信号 有何区别。对比画出三个信号,选择一小段,看看有何区别。 答:程序中部分实现代码如下: %画出信号s,exc,s_rec一段的波形 plot_task1(s,exc,s_rec); % (6) 在此位置写程序,听一听 s ,exc 和 s_rec 有何区别,解释这种区别 % 后面听语音的题目也都可以在这里写,不再做特别注明 sound(s/max(s),8000); pause(3); sound(exc/max(exc),8000); pause(3); sound(s_rec/max(s_rec),8000); pause(3); 其中 plot_task1 函数为专门的绘图函数,实现代码如下: function plot_task1(s,exc,s_rec) figure; %绘出三个信号的全时域图 subplot(3,1,1); stem(s/max(s),'Marker','none'); title('signal s'); xlabel('n (samples)'); ylabel('Amplitude'); subplot(3,1,2); stem(exc/max(exc),'Marker','none'); title('signal exc');
图 4 简化的语音生成模型 假设激励信号用 e(n)表示,语音信号用 s(n)表示,根据全极点模型表达式,有: s(n) = N k=1 a k s n − k + Ge(n) 从而我们可以用声管模型对激励信号进行滤波得到语音信号。 我们的分析和合成系统如图 5 所示: