HMM隐马尔科夫简介及语音合成
隐马尔可夫模型在语音识别中的应用

隐马尔可夫模型在语音识别中的应用隐马尔可夫模型(Hidden Markov Model,简称HMM)是一种强大的统计工具,主要用于序列数据的建模和分析。
语音是一种典型的序列数据,因此HMM在语音识别中有着广泛的应用。
本文将就HMM在语音识别中的各种应用进行详细介绍。
一、HMM模型HMM是一种统计模型,它可以描述一个由有限个状态(state)组成的随机过程(process),该过程的状态是非观测的,而只有通过一些不完全(incomplete)可观测的随机变量(observation)来观测该过程。
HMM模型由三个部分组成:状态集合、观测集合和参数集合。
其中,状态集合和观测集合是已知的,参数集合包括状态转移概率、发射概率和初始概率。
在语音识别中,HMM通常被用来表示语音的声学性质。
每个状态对应于一个语音音素(phoneme),而每个观测向量对应于一个声学特征向量。
通常使用高斯混合模型(GMM)来建模每个状态发射概率。
由于一个语音序列对应于一个状态序列和一个观测序列,因此可以通过基于HMM的Viterbi算法来计算最可能的状态序列,从而实现语音识别。
二、基于HMM的语音识别基于HMM的语音识别可以分为三个主要步骤:训练、解码和评估。
1. 训练训练是基于HMM的语音识别的重要步骤,它用于估计HMM模型的参数。
训练过程由两个部分组成:第一部分是初始化,第二部分是迭代优化。
初始化:初始化包括确定状态集合、观测集合和参数集合。
通常情况下,状态集合与待识别的音素集合相对应,而观测集合包括语音的声学特征向量。
初始参数一般采用随机初始化,或者通过聚类方法从数据中提取初始参数。
迭代优化:优化通常采用Baum-Welch算法(也称为EM算法),该算法用于最大化模型似然函数。
Baum-Welch算法是一种迭代算法,迭代过程中会反复运用E步骤和M步骤。
在E步骤中,HMM模型会被使用来计算当前状态概率分布。
在M步骤中,HMM模型会根据已知状态分布和观测数据来更新模型参数。
隐马尔科夫模型在语音识别中的应用(八)

隐马尔科夫模型在语音识别中的应用隐马尔科夫模型(Hidden Markov Model,HMM)是一种非常重要的统计模型,它被广泛应用于语音识别、手写识别、生物信息学等领域。
其中,HMM在语音识别领域的应用尤为突出。
本文将从HMM的基本原理、语音识别中的应用及未来发展方向等方面进行探讨。
HMM的基本原理首先,我们来简要介绍一下HMM的基本原理。
HMM是一种用于对观测序列进行建模的统计模型。
它的基本假设是,观测序列的生成过程是由一个不可见的马尔科夫链控制的,并且每个状态生成一个观测值。
在语音识别中,观测序列就是语音信号,而马尔科夫链的状态则对应着语音信号中的音素、音节或单词等。
因此,利用HMM可以对语音信号进行建模,并用于语音识别任务。
语音识别中的应用HMM在语音识别中扮演着重要的角色。
首先,HMM可以用于语音信号的特征提取和建模。
语音信号通常是高度抽象和非结构化的,要提取出有用的特征并建立模型是十分困难的。
而HMM可以很好地对语音信号进行建模,提取出语音信号的特征,从而为后续的语音识别任务提供支持。
其次,HMM也可以用于语音信号的识别和分析。
在语音识别任务中,我们需要将语音信号转换成文本或命令。
HMM可以对语音信号进行建模,并根据模型对语音信号进行识别和分析,从而实现语音识别的任务。
未来发展方向随着深度学习和人工智能等技术的发展,HMM在语音识别中的应用也在不断发展和完善。
未来,我们可以期待HMM与深度学习等技术的结合,以进一步提高语音识别的准确性和性能。
同时,HMM在语音合成、语音情感识别、多语种语音识别等方面也有着广阔的应用前景。
结语总之,HMM在语音识别中扮演着至关重要的角色。
它不仅可以用于语音信号的特征提取和建模,还可以用于语音信号的识别和分析。
未来,随着技术的不断发展,我们可以期待HMM在语音识别领域发挥出更大的作用。
希望本文能够对读者对HMM在语音识别中的应用有所了解。
隐马尔可夫模型在语音识别中的应用

隐马尔可夫模型在语音识别中的应用隐马尔可夫模型(Hidden Markov Model,简称HMM)是一种统计模型,常被用于序列数据的建模与分析。
其在语音识别领域有着广泛的应用。
本文将介绍隐马尔可夫模型在语音识别中的原理及应用。
一、引言语音识别是指将人类的语音信息转换为可识别的文字信息的技术。
在实际应用中,语音识别已经被广泛应用于语音助手、语音控制、语音转写等方面,极大地方便了人们的生活。
隐马尔可夫模型作为一种概率模型,其可以对语音信号进行建模与分析,为语音识别提供了有效的方法。
二、隐马尔可夫模型的基本原理隐马尔可夫模型由状态序列和观测序列组成。
状态序列是隐藏的,观测序列是可见的。
在语音识别中,状态序列可以表示语音信号的音素序列,观测序列表示对应的声音特征序列。
隐马尔可夫模型的基本原理可以归纳为三个概率:初始状态概率、状态转移概率和观测概率。
1. 初始状态概率:表示隐马尔可夫模型在时刻t=1时各个状态的概率分布。
在语音识别中,初始状态概率可以表示为开始语音的各个音素出现的概率分布。
2. 状态转移概率:表示隐马尔可夫模型从一个状态转移到另一个状态的概率分布。
在语音识别中,状态转移概率可以表示为音素之间转移的概率。
3. 观测概率:表示隐马尔可夫模型从某个状态生成观测值的概率分布。
在语音识别中,观测概率可以表示为某个音素对应的声音特征序列的概率。
三、隐马尔可夫模型在语音识别中的应用1. 语音识别过程在语音识别中,首先需要通过语音信号提取声音特征序列,例如梅尔倒谱系数(MFCC),线性预测编码(LPC)等。
然后,利用隐马尔可夫模型进行声音特征序列与音素序列之间的对齐操作,找到最可能匹配的音素序列。
最后,通过后处理算法对音素序列进行连续性约束等处理,得到最终的识别结果。
2. 训练过程隐马尔可夫模型的训练过程主要包括参数估计和模型训练两个步骤。
参数估计是指根据给定的语音和标签数据,通过最大似然估计等方法,估计模型的参数。
隐马尔可夫模型在语音识别中的应用

隐马尔可夫模型在语音识别中的应用一、引言隐马尔可夫模型(Hidden Markov Model,HMM)是一种基于概率统计的模型,由于其灵活性、通用性和有效性,使其成为自然语言处理、语音识别等领域中重要的工具之一。
语音识别是指通过计算机对语音信号进行处理和分析,从而转换成文本的过程。
本文将探讨隐马尔可夫模型在语音识别中的应用,以及其在该领域中的局限性和发展方向。
二、隐马尔可夫模型的原理隐马尔可夫模型是一种马尔可夫过程,其特点是其状态不是直接观察到的,而是通过观察到的输出来间接推断。
其由状态转移概率矩阵A、观测概率矩阵B和初始状态概率向量π三部分组成。
1.状态转移概率矩阵A状态转移概率矩阵A表示从一个状态转移到另一个状态的概率。
设隐马尔可夫模型中有N个状态,状态集合为{S1,S2,...,SN},则状态转移概率矩阵A为:A=[aij]N×N其中,aij表示从Si转移到Sj的概率。
2.观测概率矩阵B观测概率矩阵B表示在某个状态下产生某个观测值的概率。
设观测值的集合为{O1,O2,...,OM},则观测概率矩阵B为:B=[bj(k)]N×M其中,bj(k)表示在状态Sj下,观察到Ok的概率。
3.初始状态概率向量π初始状态概率向量π表示模型从某个状态开始的概率分布。
设初始状态的集合为{S1,S2,...,SN},则π为:π=[π1,π2,...,πN]其中,πi表示从状态Si开始的初始概率。
三、隐马尔可夫模型在语音识别中的应用在语音识别中,隐马尔可夫模型被广泛应用,其主要应用场景包括:1.语音信号的建模在语音识别中,将语音信号建模为声学特征流是一个核心问题。
而声学特征流是通过将语音信号划分为小时间窗进行采样获得的。
在隐马尔可夫模型中,状态对应着声学特征流的各个时间窗,而观测值则对应着该时间窗的声学特征。
因此,通过隐马尔可夫模型对声学特征流进行建模,可以从语音信号中提取出关键的声学特征,并进行语音识别。
隐马尔可夫模型算法及其在语音识别中的应用

隐马尔可夫模型算法及其在语音识别中的应用隐马尔可夫模型(Hidden Markov Model,HMM)算法是一种经典的统计模型,常被用于对序列数据的建模与分析。
目前,在语音识别、生物信息学、自然语言处理等领域中,HMM算法已经得到广泛的应用。
本文将阐述HMM算法的基本原理及其在语音识别中的应用。
一、HMM算法的基本原理1.概率有限状态自动机HMM算法是一种概率有限状态自动机(Probabilistic Finite State Automata,PFSA)。
PFSA是一种用于描述随机序列的有限状态自动机,在描述序列数据的时候可以考虑序列的概率分布。
PFSA主要包括以下几个部分:(1)一个有限状态的集合S={s_1,s_2,…,s_N},其中s_i表示第i个状态。
(2)一个有限的输出字母表A={a_1,a_2,…,a_K},其中a_i表示第i个输出字母。
(3)一个大小为N×N的转移概率矩阵Ψ={ψ_ij},其中ψ_ij表示在状态s_i的前提下,转移到状态s_j的概率。
(4)一个大小为N×K的输出概率矩阵Φ={φ_ik},其中φ_ik 表示在状态s_i的前提下,输出字母a_k的概率。
2. 隐藏状态在HMM中,序列的具体生成过程是由一个隐藏状态序列和一个观测序列组成的。
隐藏状态是指对于每个观测值而言,在每个时刻都存在一个对应的隐藏状态,但这个隐藏状态对于观测者来说是不可见的。
这就是所谓的“隐藏”状态。
隐藏状态和观测序列中的每个观测值都有一定的概率联系。
3. HMM模型在HMM模型中,隐藏状态和可观察到的输出状态是联合的,且它们都服从马尔可夫过程。
根据不同的模型,HMM模型可以划分为左-右模型、符合模型、环模型等。
其中最常见的是左-右模型。
在这种模型中,隐藏状态之间存在着马尔可夫链的转移。
在任何隐藏状态上,当前状态接下来可以转移到最多两个状态:向右移动一格或不变。
4. HMM的三个问题在HMM模型中,有三个基本问题:概率计算问题、状态路径问题和参数训练问题。
使用 hmm-gmm 方法进行语音识别的基础知识

使用 hmm-gmm 方法进行语音识别的基础知识
HMM-GMM(Hidden Markov Model - Gaussian Mixture Model)是一种常用的语音识别方法。
它的基本思想是将语音信号建模成一系列隐含状态的序列,并利用高斯混合模型对每个状态的观测概率进行建模。
以下是HMM-GMM语音识别方法的基础知识:
1. 隐马尔可夫模型(HMM):HMM是一种用于建模序列数
据的统计模型。
在语音识别中,每个语音片段被看作是一个由一系列隐含状态组成的序列,HMM模型用来描述这些状态之
间的转移以及每个状态对应的观测值的概率分布。
2. 高斯混合模型(GMM):GMM是一种用于建模连续观测
值的概率分布的模型。
在语音识别中,每个HMM的观测值被建模为由多个高斯分布组成的混合模型。
每个高斯分布表示特定状态下的语音特征的概率分布。
3. 训练过程:训练HMM-GMM模型的主要步骤是使用一组已
标注的语音数据集,通过最大似然估计来估计模型的参数。
训练过程中的关键步骤包括初始化模型的参数、计算状态转移概率矩阵、计算每个状态的高斯混合模型参数,并使用期望最大化(EM)算法迭代优化这些参数。
4. 解码过程:一旦HMM-GMM模型训练完成,解码过程用于
将输入语音信号映射到最可能的文本或单词序列。
这个过程涉及到计算给定输入信号的对数似然概率,并利用维特比算法找
到最可能的状态序列。
总而言之,HMM-GMM方法是一种基于隐马尔可夫模型和高斯混合模型的语音识别方法。
它通过对语音信号的序列进行建模和解码,能够将输入的语音信号转化为对应的文本或单词序列。
隐马尔科夫模型在语音识别中的应用(Ⅰ)

隐马尔科夫模型(Hidden Markov Model, HMM)是一种用于建模时间序列数据的统计模型。
它在语音识别中具有广泛的应用。
本文将从HMM的基本原理和语音识别的背景出发,探讨HMM在语音识别中的应用及其发展前景。
一、HMM的基本原理HMM是一种用于建模序列数据的概率模型。
它由状态空间、观测空间、状态转移概率矩阵、观测概率矩阵和初始状态概率向量组成。
在HMM中,系统的状态是不可见的,只能通过观测数据来推断系统的状态。
HMM的基本原理是根据当前状态的观测值来预测下一个状态的观测值,并通过状态转移概率矩阵和观测概率矩阵来进行计算。
二、语音识别的背景语音识别是将语音信号转换为文本或命令的技术。
它在智能手机、智能音箱、语音助手等领域有着广泛的应用。
语音识别的基本原理是将语音信号转换为文本或命令,其中包括声学模型、语言模型和发音词典。
声学模型用于建模语音信号的特征,语言模型用于建模语言的结构,发音词典用于存储词汇的发音信息。
三、HMM在语音识别中的应用HMM在语音识别中的应用主要体现在声学模型的建模上。
在语音识别中,语音信号经过特征提取之后,会得到一系列的特征向量序列。
在这个序列中,每一个特征向量都对应着一个状态。
而HMM可以用来建模这些状态之间的转移关系和观测值的概率分布。
通过训练HMM模型,可以得到每个状态的观测概率矩阵和状态转移概率矩阵,从而实现对语音信号的建模和识别。
在语音识别中,HMM模型通常与高斯混合模型(Gaussian Mixture Model, GMM)结合使用。
GMM用于建模语音信号的观测概率分布,而HMM用于建模语音信号的时间序列关系。
通过这种结合,可以更准确地对语音信号进行建模和识别。
除了在声学模型中的应用,HMM还可以应用于语音识别中的语言模型。
通过建立HMM模型来表示语言文字的结构,可以更好地对语音信号进行识别和理解。
四、HMM在语音识别中的发展前景随着人工智能技术的发展,语音识别技术也在不断进步。
什么是计算机语音合成请解释几种常见的语音合成算法

什么是计算机语音合成请解释几种常见的语音合成算法什么是计算机语音合成?请解释几种常见的语音合成算法计算机语音合成是一种将文本或其他形式的符号输入转换为可听听声音的过程。
它通过模拟人类语音的音频特征,利用不同的算法和技术,将文字内容转化为自然流畅的人工语音。
语音合成技术在现代社会得到广泛应用,例如电话助手、语音导航、语音阅读等。
常见的语音合成算法有多种,下面将介绍几种常见的算法。
1. 文本到语音 (Text-to-Speech, TTS) 模型TTS模型是机器学习和人工智能的一种应用,通过基于文本数据的机器学习算法,训练出可以将文本转换为语音的模型。
这些模型通常由深度神经网络构建,通过学习大量的文本和相应的语音数据,模型能够将新的文本输入映射到相应的声音特征,从而合成自然流畅的人工语音。
2. 拼接合成 (Concatenative Synthesis)拼接合成是一种基于数据库的语音合成技术。
这种方法将大量录制的口语数据存储为数据库,然后根据输入的文本,选择相应的语音片段进行拼接从而生成合成语音。
这种方法可以产生非常逼真的语音,因为它使用真实语音样本进行拼接,但是数据库大小和片段的匹配精度对合成质量有一定的影响。
3. 参数合成 (Parametric Synthesis)参数合成是一种通过声学模型合成语音的方法。
该方法将语音的声学特征转化为参数序列,然后再根据这些参数合成语音。
参数合成的优势在于可以在较小的数据集上进行合成,但需要精确的声学模型进行参数的转化与合成。
4. 隐马尔可夫模型 (Hidden Markov Model, HMM)隐马尔可夫模型是一种常用于语音合成的统计模型。
HMM模型将人声语音划分为连续的音素单元,并且通过建立状态转移概率分布模拟语音的连续性。
通过HMM模型,可以根据文本输入确定相应的状态序列,再通过状态序列合成出语音。
这种方法在语音合成领域应用广泛,但对于长段文字的连续语音合成效果较差。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
HMM中的两条基本假设
1. 状态独立性 :
状态序列具有马氏性 P(qt|q1,…,qt-1) = P(qt|qt-1) 第t次所用的骰子类型只依赖于第t-1次的骰子类型
2. 观察独立性 :
观察到的明字符仅与当前时间的状态有关 P(ot|o1,…,ot-1,q1,…,qt) = P(ot|qt) 第t次掷出的点数只依赖于第t次所用的骰子类型
初始化
HMM(0)
Hinit和Hcompv工具
训练 程序
HMM(i& HMM(N) 程序结束并输 出.mmf文件
i=i+1
单音素模型初始化和HMM训练流程图
输入数据:要训练的单音素HMM原型 要训练的语音对应的参数化文件 相关训练集的单音素.lab文件。
26
②上下文相关的HMM训练
3
一:概述
一:根据人类语言功能的不同层次,语言合成可以分为三类层 次,它们是: (1)按规则从文字到语音的合成(Text-To-Speech) (2)按规则从概念到语音的合成(Concept-To-Speech) (3)按规则从意向到语音的合成(Intention-To-Speech) 我们现在做的是从文字到语音的合成,即TTS。 二:在语言层、语法层、语义层的工作可以归结为前端文本分 析,而语音层面上的韵律生成和声学层面上的按韵律合成语 音单元或在音库中挑选单元可以说是后端的韵律合成。对于 TTS系统来说,前端的文本分析部分都是相同的,只是由于 要求的不同而有不同信息表达方式。
在得到训练好的单音素模型后,首先根据上下文属性集合 进行模型拓展,然后对拓展后的模型,通过HERest工具进 行Embedded训练得到上下文相关模型文件fullcontext.mmf
模型拓扑结构:采用从左到右无空跳HMM模型 状态数目:一般对声韵母采用5状态
之后进行数据准备,一般训练数据包括两个部分:
声学数据:谱和基频(这些可以从wav数据中通过STRAIGHT分析得到) 标注数据:音段切分和韵律标注
除此之外,还需要对上下文属性集合用于决策树聚类的问 题集进行设计,即根据先验知识来选择一些对声学参数(谱 、基频和时长)有一定影响的上下文属性并设计相应的问题 集,比如前后调、前后声韵母等。这部分工作与语种和发音 风格有关。
赌场例子对应: S={S1,…,SN} S={骰子 A, 骰子 B}
1/ 6 1/ 6 1/ 6 1/ 6 1/ 6 1/ 6 B= 0 1/ 8 1/ 8 3 / 16 3 / 16 3 / 8
HMM记作 λ=(S, V, π, A, B) 或 λ=(π, A, B)16
HMM将两个序列相联系起来
(LPC(线性预测分析)合成,共振峰合成)
③基于波形拼接技术的语音合成 ④可训练的语音合成:基于一套自动化的流程,根据输入的语
音信号进行训练,并形成一个相应的合 成系统
5
四:本文研究目标和内容
①目标:
基于Trainable TTS技术框架并进行优化改进, 构建一个高品质,多样化的语音合成系统。
②内容:
4
后端的韵律合成方面可以层次化分为两部分:一是按前端 给出的层次化文本信息生成合适的韵律,二是按照生成 的韵律来产生最后的合成语音。这篇论文所做的工作主 要是围绕后端来进行的。 三:语音合成方法介绍 ①物理机理语音合成:通过对人产生语音的物理结构进行建模
从而产生语音。
②源-滤波器语音合成:认为声音由激励和相应的滤波器形成。
7
隐马尔可夫模型 Hidden Markov model
马尔可夫性和马尔可夫链 HMM实例分析 HMM的三个基本问题及求解
8
马尔可夫性
如果一个过程的“将来”仅依赖“现在” 而不依赖“过去”,则此过程具有马尔 可夫性,或称此过程为马尔可夫过程 X(t+1) = f( X(t) )
9
24
相对于TTS系统来说训练阶段包括三个大的步骤:
①单音素模型的初始化和HMM训练 •HTK提供了2个不同的初始化工具:Hinit和Hcompv. Hinit工具使用Viterbi算法通过训练数据的时间轴对HMM模 型进行初始化。 Hcompv 工具用来对模型进行平坦初始化,计算全局方差 以及做方差下限估计。它会输出一个vFloors的文件,它包含 乘以因子的全局变化向量(全局方差)。存储在varFloor1中 的值在后面训练过程中用作估计的变化向量的基底。在训练 迭代过程中,与特定HMM模型状态相关联的训练帧数可能很 低。该状态的估计变化值会很小,这种情况下可用基底来代 替,避免变化值趋于极小甚至产生计算错误。
隐序列
15
HMM的定义
一阶离散HMM是一个关于时间 序列的随机生 成模型。其基本要素如下:
有限隐状态集 离散明字符集 V={V1,…,VM}V={1,2,3,4,5,6} 初始状态概率矢量 π=(π1,…, πN) π1=1, π2=0 状态转移概率矩阵 A=(aij)N× N A=
明字符生成概率矩阵 B=(bjk)N× M
10
转移概率矩阵
0.5 0.25
晴天
阴天
下雨
晴天 晴天 0.50
阴天 0.25 0.25
下雨 0.25 0.375
阴天 0.375
下雨
0.25
0.125
0.625
11
12
例子: 赌场的欺诈
某赌场在掷骰子根据点数决定胜负时 , 暗中采取 了如下作弊手段
在连续多次掷骰子的过程中 , 通常使用公平骰子 A, 偶而混入一个灌铅骰子 B
在HMM训练之前,首先要对一些建模参数进行配置
声学参数:维语:24阶mel-cepstral(MCEP)参数以及一阶能量和一阶基频共26维,加上
这26阶参数的一阶二阶差分,总共78维参数 越南语:选择的是共123维lsf参数,lf0参数共三维,在HMM中参数流共4个 建模单元的尺度:维语:8个元音、24个辅音加sp和sil共34个基本建模单元 越南语:11个单元音,3个双元音,2个半元音,22个辅音共38个音素
论文阅读报告
1
所读论文
基于隐马尔科夫模型的语音合成技术研 究—吴 义坚
基于HMM的可训练越南语语音合成系统—和林 钰 基于HMM的维吾尔语合成系统的研究与实现— 艾斯卡尔.肉孜 HTK BOOK ...
2
主要内容
概述
HMM 介绍 Trainable TTS 技术框架
Trainable TTS 技术改进
0.8
0.9 A B 0.2
0.1
13
公平骰子 A与灌铅骰子 B的区别
骰子A 1/6 1/6 1/6 1/6 1/6 1/6 骰子B 0 1/8 1/8 3/16 3/16 3/8
14
1点 2点 3点 4点 5点 6点
一次连续掷骰子的过程模拟
时间 骰子 掷出 点数
1 A 3 2 A 3 3 A 4 4 B 5 5 A 1 6 A 6 7 A 2 明序列
21
Trainable TTS 系统实现方法
在Trainable TTS 基本思想下,IBM,Microsoft以及NIT 等不同研究机构提出了几种不同的实现技术和方法。它 们的共同点是都基于HMM对语音参数进行建模,并利用 音库数据进行自动训练,需要的人工标注和干预很少. NIT:HMM-based speech synthesis a) 参数预测:在统一的框架下进行谱、基频和时 长参数建模,并生产各自的状态决策树;参数 预测方法是先采用决策树进行模型预测,然后 根据动态特性来进行参数生成。 b) 合成方法:基于HMM进行时长、基频和谱参数 生成,并采用参数合成器的方法合成语音。
19
三个基本问题
1.识别问题/评估问题
• 给定观察序列O和HMM =(π, A, B), 判断O是由产 生出来的可能性有多大?
• 计算骰子点数序列的确由“作弊”模型生成的可能性
2.解码问题
• 给定观察序列O和HMM λ =(π, A, B), 计算与序列 O相 对应的状态序列是什么? • 在骰子点数序列中, 判断哪些点数是用骰子B掷出的
3.学习问题
• 给定一系列观察序列样本, 确定能够产生出这些序列的模 型 =(π, A, B)? • 如何从大量的点数序列样本中学习得出“作弊模型”的参数
20
解法
识别问题/评估问题:前向,后向算法。 解码问题: Viterbi算法。 学习问题(训练问题/参数估计问题):
常用EM( Expectation- maximization )算法 和Baum-Welch算法(ML最大似然准则)算法。
马尔科夫链
时间和状态都离散的马尔科夫过程称为马尔科 夫链 记作{Xn = X(n), n = 0,1,2,…}
– 是在时间集T1 = {0,1,2,…}上对离散状态的过程相继 观察的结果
链的状态空间记做I = {a1, a2,…}, ai∈R. 条件概率Pij ( m ,m+k)=P{Xm+k = aj|Xm = ai} 为马 氏链在时刻m处于状态ai条件下,在时刻m+k转 移到状态aj的k步转移概率。 由Pij ( m ,m+k)构成的矩阵称为马尔科夫K步转 移矩阵。
25
•对HMM模型的训练,HTK提供了HRest工具。 通过多次HRest迭代,对HMM模型参数(主要是均值,方 差,权重,转移概率等)进行更新。每次HRest迭代时通过 change量度标示收敛性,当这个量度值不再从一个HRest迭 代到下一个迭代减少(绝对值),HRest迭代过程结束。最 终得到单音素HMM模型文件(.mmf) 输入 数据
22
基于HMM的Trainable TTS系统的基本框架,它主要包括训练和合成两大部分。 在训练过程中,利用HMM训练对基频、时长和谱参数进行建模。在合成过程中, 对输入文本进行属性分析,并利用训练后的模型进行参数预测,最后通过参数合 成器合成出语音。