变声处理
如何变声唱歌技巧

如何变声唱歌技巧如何变声唱歌技巧唱歌一定要真假音转换,无论高音还是低音都能用假音,下面是小编整理的如何变声唱歌技巧,欢迎阅读!当你从低音往上唱时,唱到一定的地方,就会感到困难,容易卡壳,这就是到了换声区了,这时,你必须运用某种方法才能继续入上唱。
歌唱者首先应基本掌握了虽声区的唱法,然后因人而异地作具体调整。
有几种方法大家可以实践一下:1)“倒抽一口气”的动作就是歌者在唱到换声的音时(发元音的同时),做一个倒抽一口气的动作,好像“吓一跳”的生理状态,让喉头稍向下,向后退让,以使口咽腔充分打开,同时将中声区歌唱时向上齿龈背后发送的气息,随着音高逐渐向上挪动,嘴也随着逐渐张开,此时声音感觉更向上,向更远的前方发送。
这时声音就自然地进入了换声区。
2)母音转换手法就是在唱到换声区的时候提前让声音掩盖一点,声音暗一点,出气量小一点,小舌头抬起一点。
在碰到换声点时,有一点必须强调指出,就是你感到声音唱上去困难时,甚至声音感到要出现破音时,千万不要变化发声器官的形态,不要乱动,乱使劲,一定要坚持迎着声音唱下去就可以了。
其实换声点的总是就是一个“混声”的'问题,就是真假声结合的问题。
掩盖一些的声音就是有了假声的成分,但又不能全假,必须与真声混合在一起,声音的衔接才不会有痕迹,声音才不会虚和空。
所以学会换声点的过渡也就学会了假声的唱法,而假声位置对唱歌、解决声音的统一是大有好处的。
所谓“假声”是指演唱时通过有意识的控制而只使部分声带发生振动所发出来的声音,这种声音比由整个声带都振动的“真声”要高要弱,而且音色有一种晶亮透明的感觉。
唱歌技巧:1.歌唱的姿势很重要。
要站直,要平均站在两腿的支持力量上。
头的位置比身体的位置更重要。
有人唱高音时把头抬起来,似乎唱上去省些劲,事实并非如此。
头抬起来高音紧了。
喉咙也会发紧,不松。
正确的是:头应稍低,但别太低。
头部有很多共鸣,声音在头部产生共鸣,声音就大。
头的动作要与旋律相反,越高头略低,声音好象下到胸腔里去。
浅谈青少年变声期的嗓音训练及保护

浅谈青少年变声期的嗓音训练及保护青少年变声期是指男生和部分女生在青春期时,由于激素分泌的变化而引起声音发生剧烈变化的阶段。
在这个阶段,嗓音会由儿童时期的高音逐渐转变成成年人的低音。
在这个时期,嗓音的训练和保护就显得尤为重要,以下是一些关于青少年变声期嗓音训练和保护的浅谈。
1.适度练声:青少年变声期嗓音的变化非常剧烈,练声可以帮助他们逐步适应新的嗓音。
但是要注意,练声的强度和时间要适度,不宜过于用力,以免对声带造成伤害。
可以选择一些简单的声音练习,如发声时做轻微的吐气动作,以避免过度用力。
2.饮食保护:青少年变声期时,喉咙和声带十分敏感,容易受到刺激。
所以在饮食方面要注意避免辛辣、油腻和刺激性食物的摄入,如辣椒、生姜等。
多喝水可以保持喉咙的湿润,有助于保护声带。
3.正确发音:在变声期,由于声带的变化,发音可能会变得困难。
所以在平时的交流中,要注意口齿清晰,慢慢地发音,不要强行发出高音或低音。
4.避免喊叫和吼叫:青少年变声期时,声音容易疲劳,过度喊叫和吼叫会对声带造成不可逆的损伤。
尽量控制自己的声音量和强度,避免长时间大声喊叫。
5.休息和保养:在变声期,适当的休息对声带的保护非常重要。
青少年要保证充足的睡眠时间,尽量避免熬夜和过度劳累。
可以适当进行喉咙保养,如用温水漱口、含温盐水漱喉等。
6.寻求专业指导:如果青少年对自己的变声期嗓音训练和保护不确定或有困惑,可以寻求专业的指导和帮助。
音乐老师或专业的声乐教练可以为他们提供正确的嗓音训练方法和注意事项。
青少年变声期是嗓音发生剧烈变化的阶段,为了保护和培养好嗓音,青少年需要适当地进行嗓音训练,并且注意保护嗓音,避免过度用力和刺激,保持合理的休息和饮食习惯。
如果感到困惑和不确定,可以寻求专业指导。
只有正确的训练和保护措施,青少年变声期的嗓音才能健康成长,为他们的音乐发展打下良好的基础。
男声变女声技巧

男声变女声技巧1. 引言在语音变声技术的应用中,男声变女声是一个常见的课题。
无论是在音乐制作中还是在配音领域,都有着广泛的需求。
本文将介绍几种常见且有效的男声变女声技巧,帮助读者在实践中更好地应用这些技巧。
2. 使用特定的音域和调性首先,要实现男声变女声,我们需要注意使用特定的音域和调性。
女声的音域较高,一般落在中高音区域。
因此,在变声过程中,我们需要有针对性地将音域提高,并且调整音调,以达到女声的效果。
3. 控制喉咙的张力和咬合方式喉咙的张力和咬合方式对声音的产生有着重要影响。
对于男性来说,喉咙张力较大且咬合方式较重,而女性则相反。
为了实现男声到女声的变化,我们需要通过练习和调整,控制喉咙的张力和咬合方式。
具体而言,可以通过放松喉咙、放松颌部以及注意喉咙的压力和收缩程度来实现女声音的产生。
4. 调整音量和呼吸方式女声通常比男声柔和且更注重呼吸的声音产生方式。
在变声过程中,我们需要调整音量和呼吸方式,使其更贴近女声的特点。
这就需要通过大量的呼吸练习来达到更自然、柔和的声音效果。
5. 准确发音及语调在变声过程中,准确的发音和自然的语调非常重要。
女声通常会表现出更加娇柔和细腻的发音方式。
因此,我们需要练习并熟练掌握各种音标和语音调式,以产生自然、准确的女声音。
6. 注意音色和共振男声和女声在音色和共振上也存在差异。
女声通常具有更多的共鸣效果,声音更加明亮和丰满。
在变声过程中,我们可以通过调整共振腔、塑造合适的共鸣效果,从而更好地模拟女性的音色和共鸣。
7. 利用音频处理工具在实际的男声变女声的应用中,我们还可以借助各种音频处理工具。
利用音频处理工具,我们可以进行音调、音色、共振等方面的加工和调整,进一步增强男声变女声的效果。
常用的音频处理软件包括Adobe Audition、Logic Pro等。
8. 实践与反馈最后,要想真正掌握男声变女声技巧,需要进行大量的实践和不断的反馈。
通过反复实践并仔细聆听自己的表现,我们可以不断调整和优化技巧,逐渐掌握更高水平的男声变女声技术。
女生的变声技巧

女生的变声技巧女生的变声技巧是指通过特定的训练和练习,使女性声音变得更加低沉、浑厚、富有力量,以便在表演、演讲、广播主持、歌唱等领域展现更广阔的表现力和职业发展空间。
下面我将详细介绍女生的变声技巧及其训练方法。
首先,女生要掌握正确的呼吸方法。
深腹式呼吸是变声的基础,可以让声音更加稳定和有力。
练习方法可以是躺在地上或坐下,用鼻子吸气,感觉气息充盈到胸腔,然后缓慢地呼出,使气息从腹部发出,并保持肚子的膨胀。
这种呼吸方式可以使声音更加稳定和有力,从而为变声打下基础。
其次,女生需要通过喉咙锻炼来改变声音。
进行一些适当的喉咙运动可以帮助加强声带和声音的强度和控制能力。
例如,可以尝试颤音练习,即用力发出哈哈哈的声音,让声带在不断颤动的过程中得到训练。
另外,可以通过发出狗吠声的声音来改变声音,这样可以让声音变得更低沉。
此外,女生可以通过模仿男性的嗓音来练习变声。
可以找一些低沉富有力量的男声录音,在听的时候试着模仿录音中的男声音调和语调。
可以逐渐增加自己的声音强度,力求达到录音中的那种低沉、有力量的声音。
同时,要注意声音的清晰度和语调的稳定性。
同时,女生需要了解声音的特点和形成机制。
声音的高低主要是由声带的紧张程度以及共鸣腔的大小决定的。
女生的声带较男生细长,因此通过训练,可以调整声带的紧张程度,使声音变得更加低沉。
同时,可以通过改变口腔和鼻腔的共鸣腔的大小,使声音更加深沉和富有共鸣。
可以通过练习震音、吸铜钱以及发出“戏子喉音”来锻炼共鸣腔。
练习过程中,女生应该保持良好的姿势,尽量使气息畅通、呼吸顺畅。
正确的姿势能够保持体态的平衡,让呼吸更加自然和有效。
同时,要注意喉咙的放松和舌头的位置。
保持喉咙的放松和舌头的稳定可以帮助声音更加清晰和稳定。
此外,女生在变声过程中要坚持练习,不断进行反馈和调整。
变声是一个需要时间和耐心的过程,不可能一蹴而就。
要不断练习,发现自己的不足之处,并根据反馈及时调整。
可以多录音和听录音,通过反馈的方式来评估自己的变声效果,找出问题所在并加以改进。
ai实时变声技术标准

ai实时变声技术标准AI实时变声技术是一种基于人工智能的音频处理技术,通过对音频信号进行分析和处理,实现对原始声音的实时变声效果。
该技术在通信、娱乐、电子游戏等领域有着广泛的应用。
为了确保AI实时变声技术的应用效果和安全性,制定相应的技术标准势在必行。
一、技术标准的必要性AI实时变声技术在通信、娱乐和游戏等领域的应用越来越广泛,但由于缺乏统一的技术标准,不同厂商或开发者之间的变声效果和实时性存在差异,给用户带来了一定的困扰。
此外,一些不正当的使用也会引发安全问题,比如利用AI实时变声技术进行诈骗、骚扰等行为。
因此,制订相应的技术标准对于规范市场秩序、保障用户权益至关重要。
二、技术标准的内容1. 变声效果AI实时变声技术的核心目标是实现对原始声音的即时变换,因此技术标准应明确变声效果的指标和要求。
变声效果应该足够自然、逼真,避免出现失真、杂音或其他异常声音。
技术标准可以通过明确声音的音质、音调、音量等方面的变化要求来衡量变声效果的好坏。
2. 实时性AI实时变声技术的另一重要特点是实时处理,用户希望能够即时听到变声后的结果。
因此,技术标准需要对实时性进行要求,要求变声处理的延迟尽可能小,以确保用户体验的流畅性。
3. 环境适应性AI实时变声技术可能在不同的环境下进行应用,包括不同的噪声环境和语音环境。
技术标准应该要求AI实时变声技术在各种环境条件下都能够保持良好的变声效果,不受外部干扰的影响。
4. 安全性AI实时变声技术的滥用可能造成一些安全问题,比如诈骗、冒充他人声音等。
技术标准应对AI实时变声技术的安全性进行规定,要求开发者在应用该技术时必须遵守用户隐私保护的原则,并且不得滥用技术进行违法、不良的行为。
三、技术标准的制定和执行制定AI实时变声技术标准应该由相关的标准化组织、技术专家和行业协会共同参与。
他们应通过多方面的数据和实验,综合考虑技术的可行性和用户需求,以科学客观的方式制定相应的技术标准。
变声算法原理

变声算法原理变声是一种将声音修改成不同音调和声调的过程,其用途十分广泛,例如音乐制作、语音合成和语音转换等领域。
变声算法则是实现这一过程的重要手段,本文将深入探讨变声算法的原理。
首先需要了解的是音高和声音质量这两个概念。
音高是指在一定的时间内,声波重复振动的次数,也称为频率,单位为赫兹。
不同音符的音高是不同的,例如C4的频率为261.63Hz,而G5的频率为783.99Hz。
声音质量则是指音色、音效等因素,包括音色元素的强度、谐波等等。
然后是变声算法的实现步骤。
变声算法的主要目标是改变声音的音高或/和声音质量。
实现这一目标的步骤如下:1.采样和数字化声音信号。
声音信号只能在计算机中进行处理,因此需要将音频转换成数字信号。
数字化后的信号可以被计算机读取并进行处理。
2.分析声音信号的频率和振幅。
计算机将读取每个样本的振幅和频率,以获得一系列数字数据。
3.修改声音信号的频率和振幅。
如果只需要改变音高,则可以通过改变声音信号的频率来实现。
如果需要改变声音质量,则可以通过调整声音信号的振幅和谐波来实现。
需要注意的是,对于相对较小的音高、声音质量的变化,可以直接进行修改;但对于大幅度的变化,则需要一些高级算法,例如FFT (快速傅里叶变换)、WOLA(加权重叠相加算法)等等。
此外,对于一些应用程序,例如语音识别,需要对音频信号进行预处理,以削减冗余的信息和降低噪声水平。
这些预处理算法包括滤波、降噪等等。
最后是变声算法的分类。
目前,变声算法主要分为以下几种:1.基频变换方法:通过在频率轴上对信号进行伸缩,修改声音信号的基频。
基频高的声音听起来比较高亢,低的音符则听起来比较低沉。
2.正弦波变换方法:该方法通过将信号划分成数个频率区间,然后将每个区间的振幅放大或缩小来实现变声。
3.时域加密方法:该方法使用傅里叶变换,将时域上的声音信号转换为频域上的信号。
然后在频域上对声音进行加密。
变声器音效的原理

变声器音效的原理变声器是一种可以改变声音频率、音调和音色的设备。
它可以将一个人的声音转换成另一个人的声音,或者将声音变得更加低沉或尖锐。
变声器的原理涉及到声音信号处理和频谱分析等技术。
变声器的原理主要包括以下几个方面:1. 声音信号采集:变声器首先需要对声音进行采集。
现代变声器通常使用麦克风来采集声音信号。
麦克风会将声音转换为模拟电信号,并将其发送给变声器的处理电路。
2. 声音信号处理:变声器的处理电路对采集到的声音信号进行处理。
处理电路通常包括放大器、滤波器和数字信号处理器(DSP)等组件。
放大器可以将声音信号的幅度进行放大,以便更好地进行后续处理。
滤波器可以通过去除或增强特定频率范围内的声音来改变音色。
DSP可以对声音信号进行数字化处理,如频域分析、重构和合成。
3. 频谱分析:变声器需要对声音的频谱进行分析。
频谱分析是指将声音信号转换为频域上的表示,以便更好地理解声音的频率分布。
变声器通常使用快速傅里叶变换(FFT)等算法进行频谱分析。
在频谱分析中,声音信号被分解成一系列频谱分量,每个频谱分量表示声音信号在特定频率上的能量。
4. 音调变换:变声器可以通过改变声音信号的频率来改变音调。
音调是指声音的频率高低,决定了声音的音高。
变声器可以通过改变声波周期的长度来改变声音的频率,从而改变音调。
通常,变声器会增加或减少声波周期的长度,以提高或降低音调。
5. 音色转换:变声器还可以通过改变声音信号的谐波成分来改变音色。
音色是指声音的质地或特征,决定了声音的明亮度和清晰度。
变声器可以通过改变各个频率成分的幅度和相位来改变声音的谐波结构,从而改变音色。
通过增强或减弱特定频率范围内的谐波成分,变声器可以实现不同的音色效果。
6. 混响和回声效果:变声器还可以模拟不同的环境音效,如混响和回声效果。
混响是指声音在环境中重复反射和传播产生的延迟回声。
变声器可以通过控制声音信号的延迟时间、衰减率和反射次数等参数来模拟不同的混响效果。
lpc倒谱法实现变声的代码

实现LPC倒谱法进行变声的主要步骤包括以下几部分:1. 音频预处理:首先需要将原始音频进行预处理,包括去除噪声、增强音频信号等。
2. 特征提取:使用LPC算法提取音频的特征参数,这些参数可以描述音频信号的语音特征。
3. 变声处理:使用提取的特征参数进行变声处理,可以通过改变参数值或者加入噪声等来实现。
以下是一个使用Python和Librosa库实现的简单示例代码,其中包含上述步骤:```pythonimport librosaimport numpy as npimport matplotlib.pyplot as pltfrom scipy import signal# 加载音频文件y, sr = librosa.load('audio.wav')# 音频预处理y = librosa.effects.trim(y)# 特征提取n_fft = 2048hop_length = 512p = 128 # 帧数,LPQFS等价于把所有的LPC倒谱分量直接送入包袱作为近似的合成因子(接近常数,此处设置的是帧数,可依据具体情况进行调整)x = librosa.feature.lin2log(librosa.feature.mfcc(y, sr, n_fft, hop_length), sr) # MFCC变换的结果是最为稳定的特征量# 变声处理lpc_coeffs = librosa.feature.lin2log(x[:, p-1], sr) # LPC系数经过对数变换后再进行倒谱分析lpc_cepstrum = np.log(np.abs(lpc_coeffs)) # 对LPC系数进行幅度归一化后得到的倒谱称为lpc 倒谱系数,需要进行幅度归一化才能和人类语言音频比较正确频谱结构特征信息进行分析的图像转换称为LP系数系数合成的主要成分;图像根据最大峭度法则原理选取到-0.7位数的倒谱系数作为主要成分;倒谱系数经过对数变换后再进行幅度归一化后得到的倒谱称为lpc 倒谱系数,再进行幅度归一化才能和人类语言音频比较正确频谱结构特征信息进行分析的图像转换称为LP系数。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
[s,fs,nbits] = wavread(‘wo.wav’); %载入语音ss = s/max(s); %归一化L = length(s); %读入语音长度S=fft(s,L);figuresubplot(2,1,1);plot(s);title(‘原语音信号波形’);subplot(2,1,2);plot(abs(S));title(‘原语音信号频谱’);小孩的声音clear all,close all, clc; %定义常数FL=80; %帧长WL=240; %窗长P=10; %预测系数个数[s,fs,nbits] = wavread('wo.wav'); %载入语音ss=s/max(s); %归一化L=length(s); %读入语音长度FN=floor(L/FL)-2; %计算帧长%预测和重建滤波器exc=zeros(L,1); %激励信号zi_pre=zeros(P,1); %预测滤波器的状态s_rec=zeros(L,1); %重建语音zi_rec=zeros(P,1); %变调不变速滤波器exc_syn_t = zeros(L,1); %合成的激励信号s_syn_t = zeros(L,1); %合成语音last_syn_t = 0; %存储上一个(或多个)段的最后一个脉冲的下标zi_syn_t = zeros(P,1); %合成滤波器的状态hw = hamming(WL); %汉明窗%依次处理每帧语音for n=3:FN %计算预测系数s_w = s(n*FL-WL+1:n*FL).*hw; %汉明窗加权后的语音[A E]=lpc(s_w, P); %用线性预测法计算P个预测系数%A是预测系数,E会被用来计算合成激励的能量s_f = s((n-1)*FL+1:n*FL); %本帧语音,下面就要对它做处理%(4)用filter函数s_f计算激励,注意保持滤波器状态[exc1,zi_pre] = filter(A,1,s_f,zi_pre);exc((n-1)*FL+1:n*FL) = exc1; %计算得到的激励%(5)用filter函数和exc重建语音,注意保持滤波器状态[s_rec1,zi_rec] = filter(1,A,exc1,zi_rec);s_rec((n-1)*FL+1:n*FL) = s_rec1; %计算得到的重建语音%注意下面只有在得到exc后才会计算正确s_Pitch = exc(n*FL-222:n*FL);PT = findpitch(s_Pitch); %计算基音周期PTG = sqrt(E*PT); %计算合成激励的能量G%(13)将基音周期减小一半,将共振峰频率增加7000Hz,重新合成语音PT1=floor(PT/2); %减小基音周期poles=roots(A);deltaOMG=700*2*pi/8000;for p=1:10 %增加共振峰频率,实轴上方的极点逆时针转,下方顺时针转 if imag(poles(p))>0 poles(p) = poles(p)*exp(j*deltaOMG);elseif imag(poles(p))<0 poles(p) = poles(p)*exp(-j*deltaOMG); endendA1=poly(poles);tempn_syn_t = [1:n*FL-last_syn_t]';exc_syn1_t = zeros(length(tempn_syn_t),1);exc_syn1_t(mod(tempn_syn_t,PT1)==0) = G; %某一段算出的脉冲exc_syn1_t = exc_syn1_t((n-1)*FL-last_syn_t+1:n*FL-last_syn_t); [s_syn1_t,zi_syn_t] = filter(1,A1,exc_syn1_t,zi_syn_t);exc_syn_t((n-1)*FL+1:n*FL) = exc_syn1_t; %计算得到的合成激励s_syn_t((n-1)*FL+1:n*FL) = s_syn1_t; %计算得到的合成语音last_syn_t = last_syn_t+PT1*floor((n*FL-last_syn_t)/PT1);endS=(s_syn_t,L) %变调不变速figure;subplot(2,1,1), plot(exc_syn_t), xlabel('n (samples)'), ylabel('Amp litude'), title(‘合成高调激励信号’),XLim([0,length(exc_syn_t)]);subplot(2,1,), plot(abs(S))), title('合成高调语音信号频谱'), XLim([0,length(s_syn_t)]);sound(s_syn_t);%ct1clear all,close all, clc;% 定义常数FL = 80; %帧长WL = 240; % 窗长P = 10; % 预测系数个数[s,fs] = wavread('sunday_2.wav'); %载入语音ss=s/max(s); %归一化L = length(s); %读入语音长度FN = floor(L/FL)-2; %计算帧数%预测和重建滤波器exc = zeros(L,1); %激励信号(预测误差)zi_pre = zeros(P,1); %预测滤波器的状态s_rec = zeros(L,1); %重建语音zi_rec = zeros(P,1);%合成滤波器exc_syn = zeros(L,1); %合成的激励信号(脉冲串)s_syn = zeros(L,1); %合成语音last_syn = 0; %存储上一个(或多个)段的最后一个脉冲的下标zi_syn = zeros(P,1); %合成滤波器的状态%变调不变速滤波器exc_syn_t = zeros(L,1); %合成的激励信号(脉冲串)s_syn_t = zeros(L,1); %合成语音last_syn_t = 0; %存储上一个(或多个)段的最后一个脉冲的下标zi_syn_t = zeros(P,1); %合成滤波器的状态%变速不变调滤波器(假设速度减慢一倍)v=.5;exc_syn_v = zeros(v\L,1);%合成的激励信号(脉冲串)s_syn_v = zeros(v\L,1); %合成语音last_syn_v = 0; %存储上一个(或多个)段的最后一个脉冲的下标zi_syn_v = zeros(P,1); %合成滤波器的状态hw=hamming(WL); %汉明窗%依次处理每帧语音for n = 3:FN %计算预测系数(不需要掌握)s_w = s(n*FL-WL+1:n*FL).*hw; %汉明窗加权后的语音[A E] = lpc(s_w, P);% 用线性预测法计算P个预测系数%A是预测系数,E会被用来计算合成激励的能量if n == 27%(3)观察预测系统的零极点图zplane(1,A);ends_f = s((n-1)*FL+1:n*FL);%本帧语音,下面就要对它做处理%(4)用filter函数s_f计算激励,注意保持滤波器状态[exc1,zi_pre] = filter(A,1,s_f,zi_pre);exc((n-1)*FL+1:n*FL) = exc1; %计算得到的激励%(5)用filter函数和exc重建语音,注意保持滤波器状态[s_rec1,zi_rec] = filter(1,A,exc1,zi_rec);s_rec((n-1)*FL+1:n*FL) = s_rec1; %计算得到的重建语音%注意下面只有在得到exc后才会计算正确s_Pitch = exc(n*FL-222:n*FL);PT = findpitch(s_Pitch); %计算基音周期PT(不要求掌握)G = sqrt(E*PT); %计算合成激励的能量G(不要求掌握)%方法3:本段激励只能修改本段长度tempn_syn = [1:n*FL-last_syn]';exc_syn1 = zeros(length(tempn_syn),1);exc_syn1(mod(tempn_syn,PT)==0) = G; %某一段算出的脉冲exc_syn1 = exc_syn1((n-1)*FL-last_syn+1:n*FL-last_syn);[s_syn1,zi_syn] = filter(1,A,exc_syn1,zi_syn);exc_syn((n-1)*FL+1:n*FL) = exc_syn1; %计算得到的合成激励s_syn((n-1)*FL+1:n*FL) = s_syn1; %计算得到的合成语音last_syn = last_syn+PT*floor((n*FL-last_syn)/PT);%(11)不改变基音周期和预测系数,将合成激励的长度增加一倍,再作为filter%的输入得到新的合成语音,听一听是不是速度变慢了,但音调没有变。
FL_v = floor(FL/v);tempn_syn_v = [1:n*FL_v-last_syn_v]';exc_syn1_v = zeros(length(tempn_syn_v),1);exc_syn1_v(mod(tempn_syn_v,PT)==0) = G; %某一段算出的脉冲exc_syn1_v = exc_syn1_v((n-1)*FL_v-last_syn_v+1:n*FL_v-last_syn_v); [s_syn1_v,zi_syn_v] = filter(1,A,exc_syn1_v,zi_syn_v);last_syn_v = last_syn_v+PT*floor((n*FL_v-last_syn_v)/PT);exc_syn_v((n-1)*FL_v+1:n*FL_v) =exc_syn1_v; %计算得到的加长合成激励s_syn_v((n-1)*FL_v+1:n*FL_v) = s_syn1_v; %计算得到的加长合成语音%(13)将基音周期减小一半,将共振峰频率增加150Hz,重新合成语音,听听是啥感受~PT1 =floor(PT/2); %减小基音周期poles = roots(A);deltaOMG = 150*2*pi/8000;for p=1:10%增加共振峰频率,实轴上方的极点逆时针转,下方顺时针转if imag(poles(p))>0 poles(p) = poles(p)*exp(j*deltaOMG);elseif imag(poles(p))<0 poles(p) = poles(p)*exp(-j*deltaOMG);endendA1=poly(poles);if n==27figure;zplane(1,A1);endtempn_syn_t = [1:n*FL-last_syn_t]';exc_syn1_t = zeros(length(tempn_syn_t),1);exc_syn1_t(mod(tempn_syn_t,PT1)==0) = G; %某一段算出的脉冲exc_syn1_t = exc_syn1_t((n-1)*FL-last_syn_t+1:n*FL-last_syn_t);[s_syn1_t,zi_syn_t] = filter(1,A1,exc_syn1_t,zi_syn_t);exc_syn_t((n-1)*FL+1:n*FL) = exc_syn1_t; %计算得到的合成激励s_syn_t((n-1)*FL+1:n*FL) = s_syn1_t; %计算得到的合成语音last_syn_t = last_syn_t+PT1*floor((n*FL-last_syn_t)/PT1);end%(6)s,exc和s_rec的区别figure;subplot(3,1,1), plot(exc), xlabel('n (samples)'), ylabel('Amplitude'), t itle('激励信号');subplot(3,1,2), plot(s), xlabel('n (samples)'), ylabel('Amplitude'), tit le('原语音信号');subplot(3,1,3), plot(s_rec), xlabel('n (samples)'), ylabel('Amplitude'), title('重建语音信号');figure;subplot(3,1,1),plot(exc),xlabel('n(samples)'),ylabel('Amplitude'),title ('激励信号'), XLim([15*FL+1,16*FL]);subplot(3,1,2),plot(s), xlabel('n(samples)'),ylabel('Amplitude'),title('原语音信号'),XLim([15*FL+1,16*FL]);subplot(3,1,3),plot(s_rec),xlabel('n(samples)'),ylabel('Amplitude'),titl e('重建语音信号'),XLim([15*FL+1,16*FL]);sound(exc);pause(2);sound(s);pause(2);sound(s_rec);pause(2); %原始语音与合成语音的差别figure;subplot(3,1,1), plot(exc_syn), xlabel('n (samples)'), ylabel('Amplitude' ), title('合成激励信号');subplot(3,1,2), plot(s), xlabel('n (samples)'), ylabel('Amplitude'),titl e('原语音信号');subplot(3,1,3), plot(s_syn), xlabel('n (samples)'), ylabel('Amplitude'), title('合成语音信号');sound(s);pause(2);sound(s_syn);pause(2);%变速不变调figure;subplot(3,1,1), plot(exc_syn_v), xlabel('n (samples)'), ylabel(' Amplitude'),title('合成慢速激励信号'),XLim([0,length(exc_syn_v)]);subplot(3,1,2), plot(s),xlabel('n(samples)'),ylabel('Amplitude'),title('原语音信号'),XLim([0,length(s)]);subplot(3,1,3),plot(s_syn_v),xlabel('n(samples)'),ylabel('Amplitude'), t itle('合成慢速语音信号'),XLim([0,length(s_syn_v)]);sound(s);pause(2);sound(s_syn_v);pause(4);%变调不变速figure;subplot(3,1,1),plot(exc_syn_t),xlabel('n(samples)'),ylabel('Amplitude'), title('合成高调激励信号') ,XLim([0,length(exc_syn_t)]);subplot(3,1,2), plot(s), xlabel('n(samples)'),ylabel('Amplitude'),title('原语音信号'),XLim([0,length(s)]);subplot(3,1,3),plot(s_syn_t),xlabel('n(samples)'),ylabel('Amplitude') ,title('合成高调语音信号'), XLim([0,length(s_syn_t)]);sound(s);pause(2);sound(s_syn_t);。