AAC解码算法原理详解

合集下载

AAC解码算法原理详解

AAC解码算法原理详解

AAC解码算法原理详解AAC(Advanced Audio Coding)是一种高级音频编码格式,它是MPEG-2和MPEG-4标准中定义的一种音频压缩算法。

AAC算法通过使用一系列的信号处理技术,能够在保持高音质的同时实现较高的压缩率。

本文将详细解释AAC解码算法的原理,包括主要的信号处理步骤和算法流程。

一、AAC解码算法的主要信号处理步骤1. 帧解析(Frame Parsing):AAC音频数据以一帧一帧的形式进行传输和存储。

解码器首先需要对输入的AAC数据进行帧解析,将音频数据按照帧的格式进行划分和组织。

2. 音频元数据提取(Audio Metadata Extraction):在AAC数据中,包含了一些音频元数据,如采样率、声道数、比特率等信息。

解码器需要从AAC数据中提取这些元数据,以便后续的解码处理。

3. 预处理(Preprocessing):预处理是为了减少音频数据中的冗余信息和噪声,提高解码的准确性和音质。

预处理步骤包括滤波、降噪、均衡化等。

4. 频谱分析(Spectrum Analysis):频谱分析是将音频数据从时域转换到频域的过程。

在AAC解码中,常用的频谱分析算法有快速傅里叶变换(FFT)和短时傅里叶变换(STFT)。

频谱分析可以提取音频数据的频谱特征,用于后续的声音重建。

5. 音频解码(Audio Decoding):音频解码是将压缩的AAC数据解码为原始的音频信号的过程。

在AAC解码中,主要使用了两种解码算法:MDCT(Modified Discrete Cosine Transform)和TNS(Temporal Noise Shaping)。

MDCT算法将频域的音频数据转换为时域的音频数据,而TNS算法则用于降低音频数据中的噪声。

6. 声音重建(Audio Reconstruction):声音重建是将解码后的音频信号进行还原和重建的过程。

在AAC解码中,声音重建主要采用了滤波、插值和重采样等技术,以提高音质和还原度。

ACC音乐格式全面解析

ACC音乐格式全面解析

浅论AAC音频格式(比mp3好的音质)Adpative Audio Coding。

一种专为声音数据设计的文件压缩格式,与Mp3类似。

利用AAC格式,可使声音文件明显减小,而不会让人感觉声音质量有所降低AAC格式可以用千千静听(六组件)或索尼Sonic Stage,Media Manager For Walkman或苹果iTunes转换从MP3到AAC早在1987年,Fraunhofer IIS就开始了“EUREKA project EU147,Digital Audio Broadcasting(DAB)”的研发,而这就是MP3的前身。

通过和Dieter Seitzer教授的合作,他们开发出了著名的ISO-MPEG Audio Layer-3压缩算法。

1993年这个算法被整合到MPEG-1标准中,从此MP3被投入使用。

1996年底Fraunhofer IIS 在美国获得MP3的专利,并在1998年对外声明将收取MP3的专利使用费。

而从1999年初开始,MP3格式广泛流行起来。

特别是出现了很多免费提供MP3的音乐网站,MP3随身听也像洪水般涌进市场,种种因素促使MP3成为了极其主流的音频格式。

尽管之后有VQF、WMA等挑战者,但MP3牢固的根基使它至今仍稳稳地坐在老大的位置上。

但是音频格式就像电脑软硬件一样,终归要更新换代的,像磁带不是被CD淘汰了吗?而CD也将要被DVD-Audio所代替。

随着时间的推移,MP3越来越不能满足我们的需要了,比如压缩率落后于Ogg、WMA、VQF等格式,音质也不够理想(尤其是低码率下),仅有两个声道……于是Fraunhofer IIS与AT&T、索尼、杜比、诺基亚等公司展开合作,共同开发出了被誉为“21世纪的数据压缩方式”的Advanced Audio Coding(简称AAC)音频格式,以取代MP3的位置。

其实AAC的算法在1997年就完成了,当时被称为MPEG-2 AAC,因为还是把它作为MPEG-2(MP2)标准的延伸。

fdk-aac编码原理

fdk-aac编码原理

fdk-aac编码原理
fdk-aac是一种开源的、高性能的AAC(Advanced Audio Coding)音频编码库。

以下是fdk-aac编码的基本原理:
1.AAC编码概述:AAC是一种先进的音频编码标准,旨在提供更高的音频质量和更低的比特率。

它采用了基于子带的编码技术,通过对音频信号进行频域分析和量化来实现高效的压缩。

2.Psychoacoustic Model(心理声学模型):AAC编码使用心理声学模型分析音频信号,模拟人耳的感知特性。

这包括对音频信号的掩蔽效应进行建模,以便更有效地分配比特率给对人耳更敏感的信号部分。

3.MDCT(Modulated Discrete Cosine Transform):AAC使用MDCT作为频域变换技术,将音频信号从时域变换到频域。

这种变换有助于提取信号的频域特征,为后续的量化和编码提供基础。

4.Quantization and Coding(量化和编码):MDCT输出的频域系数经过量化和编码,以减少数据量。

AAC使用了一系列的编码技术,如Huffman编码和熵编码,来进一步压缩数据。

5.Bit Allocation(比特分配):根据心理声学模型的分析结果,AAC对每个频带分配适当的比特率,以确保对人耳敏感的频段获得更多的比特,从而提高音质。

6.码率控制:AAC编码器通常具有码率控制功能,以确保生成的编码流满足指定的比特率要求。

这对于网络传输和存储空间的有效利用非常重要。

fdk-aac是一个高度优化的AAC编码库,它在实现这些基本原理的同时,通过一系列的技术手段和算法来提高编码效率和音频质量。

AAC音频格式分析与解码

AAC音频格式分析与解码

AAC音频格式分析与解码AAC(Advanced Audio Coding)是一种高级音频编码格式,它是MPEG-2音频的继承者,广泛应用于数字音频传输和存储中。

在本文中,我们将对AAC音频格式进行分析和解码。

AAC音频格式是一种有损压缩格式,它能够提供与其他音频格式相同的音频质量,但文件大小更小。

AAC通过采用一些先进的编码技术,如感知音频编码(Perceptual Audio Coding)、熵编码等,对音频信号进行压缩。

这样一来,就能够在相同的比特率下提供更高的音频质量。

AAC格式的音频文件通常以文件扩展名".aac"或".m4a"存储。

这些文件可以在许多不同的设备和平台上播放,如音频播放器、个人电脑、智能手机和流媒体服务等。

下面我们来分析AAC的编码和解码过程。

编码过程:1.音频采样:首先,原始音频信号通过麦克风或其他音频设备进行采样。

采样率通常为44.1kHz,与标准的CD音质相同。

2.信号预处理:采样的音频信号经过预处理步骤,如重采样、滤波等,以准备好用于编码的信号。

3.频域分析:音频信号通过傅立叶变换等方法转换为频域信号。

4.感知音频编码:这是AAC编码的核心步骤。

通过对频域信号进行感知编码,过滤掉人耳听觉不敏感的频率成分,从而减少编码数据量。

5. 熵编码:对感知编码后的信号进行熵编码,使用Adaptive Huffman Coding等算法进行数据压缩。

6.输出压缩数据:将编码后的数据写入AAC文件。

解码过程:1.读取AAC文件:首先,解码器读取存储在AAC文件中的压缩数据。

2.数据解压:对读取的压缩数据进行解压缩,恢复为编码前的数据。

3.熵解码:对解压后的数据进行熵解码,还原为感知编码后的频域信号。

4.逆变换:通过逆傅立叶变换等方法将频域信号转换回时域信号。

5.音频重构:将逆变换得到的时域信号进行音频重构处理,还原为原始的音频信号。

6.输出音频:将重构的音频信号输出到音频设备进行播放。

音视频编解码原理

音视频编解码原理

音视频编解码原理
音视频编解码原理是指将音频和视频信号转化成数字信号的过程。

编码是将原始的音频、视频数据通过一种特定的算法转化为数字信号的过程,而解码是将数字信号重新还原为原始的音频、视频数据的过程。

在音频编解码原理中,常用的编码方式包括PCM编码、MP3编码、AAC编码等。

PCM编码是一种无损压缩的编码方式,它将模拟音频信号通过采样和量化的方式转化为数字信号。

MP3编码是一种有损压缩的编码方式,它通过对音频信号的频域信息进行压缩,从而减小文件的大小。

AAC编码是一种采用人类听觉模型的有损压缩编码方式,它在保持音频质量的同时,能够显著减小文件的大小。

在视频编解码原理中,常用的编码方式包括MPEG编码、H.264编码、H.265编码等。

MPEG编码是一种以压缩帧为基本单位的编码方式,它通过对连续帧之间的差异进行编码,实现对视频信号的压缩。

H.264编码是一种采用基于运动补偿的编码方式,它通过对运动部分和非运动部分的差异进行编码,从而实现对视频信号的压缩。

H.265编码是一种比H.264更高效的编码方式,它采用了更加先进的技术,能够在保持视频质量的同时,减小文件的大小。

在音视频编解码原理中,编码和解码是相互配合的过程。

编码将音频、视频信号转化为数字信号,减小了数据的体积;解码将数字信号还原为原始的音频、视频数据,恢复了信号的完整
性。

通过音视频编解码技术,可以实现音频、视频的高质量传输和存储,提升了音视频应用的效果和用户体验。

音频编解码原理

音频编解码原理

音频编解码原理
音频编解码原理是一种将音频信号从模拟形式转换为数字形式并相互转换的技术。

编码是将模拟音频信号转换为数字形式,而解码则是将数字音频信号转换为模拟形式。

在音频编码过程中,模拟音频信号经过采样步骤将其转换为一系列离散的样本。

然后,对采样到的数据进行量化,将其映射到固定数量的离散值中,从而将连续的模拟信号转换为离散的数字信号。

接下来,将量化后的离散数据进行编码。

编码的目标是通过使用较少的位数来表示音频信号,以减小数据量并提高传输效率。

常用的音频编码算法包括PCM(脉冲编码调制)、ADPCM (自适应差分脉冲编码调制)、MP3(MPEG-1音频第三层)、AAC(高级音频编码)等。

在音频解码过程中,首先将编码后的数字音频数据还原为离散的量化数据。

然后,将量化数据反量化,将其转换回原始的离散数值。

最后,使用重构滤波器将离散数据重新插值为连续的模拟信号,以便在扬声器或耳机中进行音频回放。

音频编解码原理在许多应用领域中发挥着重要作用,例如音频压缩、音频传输、音频存储等。

通过使用合适的编码算法,可以实现高质量的音频传输和存储,并在一定程度上减小数据量,提高系统的效率和性能。

AAC解码算法原理详解

AAC解码算法原理详解

AAC解码算法原理详解原龙帅 (loppp138hotmail)此文章为便携式多媒体技术中心提供,未经站长授权,严禁,但欢迎到此地址。

本文详细介绍了符合ISO/IEC 13818-7(MPEG2 AAC audio codec) , ISO/IEC 14496-3(MPEG4 Audio Codec AAC Low Complexity)进行压缩的的AAC音频的解码算法。

1、程序系统结构下面是AAC解码流程图:AAC解码流程图在主控模块开始运行后,主控模块将AAC比特流的一部分放入输入缓冲区,通过查找同步字得到一帧的起始,找到后,根据ISO/IEC 13818-7所述的语法开始进行Noisless Decoding(无噪解码),无噪解码实际上就是哈夫曼解码,通过反量化(Dequantize)、联合立体声(Joint Stereo),知觉噪声替换(PNS),瞬时噪声整形(TNS),反离散余弦变换(IMDCT),频段复制(SBR)这几个模块之后,得出左右声道的PCM码流,再由主控模块将其放入输出缓冲区输出到声音播放设备。

2. 主控模块主控模块的主要任务是操作输入输出缓冲区,调用其它各模块协同工作。

其中,输入输出缓冲区均由DSP控制模块提供接口。

输出缓冲区中将存放的数据为解码出来的PCM数据,代表了声音的振幅。

它由一块固定长度的缓冲区构成,通过调用DSP控制模块的接口函数,得到头指针,在完成输出缓冲区的填充后,调用中断处理输出至I2S接口所连接的音频ADC芯片(立体声音频DAC和DirectDrive 耳机放大器)输出模拟声音。

3. 同步与元素解码同步与元素解码模块主要用于找出格式信息,并进行头信息解码,以与对元素信息进行解码。

这些解码的结果用于后续的无噪解码和尺度因子解码模块。

AAC的音频文件格式有以下两种:ADIF:Audio Data Interchange Format 音频数据交换格式。

这种格式的特征是可以确定的找到这个音频数据的开始,不需进行在音频数据流中间开始的解码,即它的解码必须在明确定义的开始处进行。

音频解码器原理解析

音频解码器原理解析

音频解码器原理解析随着数字音频的普及和发展,音频解码器作为数字音频播放的核心组件,扮演着十分重要的角色。

本文将对音频解码器的原理进行解析,以帮助读者更好地理解音频解码的过程。

一、概述音频解码器是一种可以将压缩后的音频数据还原为原始音频信号的设备或软件。

压缩后的音频数据通常以数字格式存储,包含了音频信号的各种特征和信息。

解码器通过一系列的处理过程,将压缩音频数据解码为原始的模拟音频信号,从而实现音频的播放。

二、音频解码原理1. 数据解压缩音频解码的第一步是对压缩的音频数据进行解压缩。

常见的音频压缩格式有MP3、AAC等,这些格式通过降低数据的冗余性和重复性,以减小音频数据的文件大小。

解码器需要先识别压缩格式,并对其进行解码,将压缩的音频数据还原成原始的数据流。

2. 数字信号处理解码器接收到解压缩的音频数据后,需要对其进行一系列的数字信号处理。

这包括滤波、混响、均衡器等处理过程,通过调整音频信号的频率、幅度、相位等参数,对音频信号进行优化和增强,提升音频的音质和还原度。

3. 数字到模拟转换解码器处理完音频数据的数字信号后,需要将其转换为模拟信号,以便输出到扬声器或耳机中进行播放。

这一过程称为数字到模拟转换(DAC),解码器通过DAC芯片将数字信号转换为模拟电压信号,再经过功放等电路进行放大,最终驱动扬声器发出声音。

三、音频解码器的分类根据解码器的实现方式和应用领域,音频解码器可以分为硬件解码器和软件解码器两类。

1. 硬件解码器硬件解码器通常以芯片的方式集成在音频播放设备中,如手机、电脑、音频播放器等。

这些设备通过硬件解码器将压缩后的音频数据解码为模拟信号,再通过内建的扬声器或耳机输出声音。

硬件解码器具有高效稳定的特点,适合用于实时播放和高质量音频输出。

2. 软件解码器软件解码器则是以软件程序的形式运行在计算机或移动设备上。

通过在计算机中安装解码软件,用户可以将压缩的音频文件解码为原始音频信号。

软件解码器具有较好的兼容性和灵活性,能够支持多种音频格式和编码算法。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

AAC解码算法原理详解原作者:龙帅 (loppp138@)此文章为便携式多媒体技术中心提供,未经站长授权,严禁转载,但欢迎链接到此地址。

本文详细介绍了符合ISO/IEC 13818-7(MPEG2 AAC audio codec) , ISO/IEC 14496-3(MPEG4 Audio Codec AAC Low Complexity)进行压缩的的AAC音频的解码算法。

1、程序系统结构下面是AAC解码流程图:AAC解码流程图在主控模块开始运行后,主控模块将AAC比特流的一部分放入输入缓冲区,通过查找同步字得到一帧的起始,找到后,根据ISO/IEC 13818-7所述的语法开始进行Noisless Decoding(无噪解码),无噪解码实际上就是哈夫曼解码,通过反量化(Dequantize)、联合立体声(Joint Stereo),知觉噪声替换(PNS),瞬时噪声整形(TNS),反离散余弦变换(IMDCT),频段复制(SBR)这几个模块之后,得出左右声道的PCM码流,再由主控模块将其放入输出缓冲区输出到声音播放设备。

2. 主控模块主控模块的主要任务是操作输入输出缓冲区,调用其它各模块协同工作。

其中,输入输出缓冲区均由DSP控制模块提供接口。

输出缓冲区中将存放的数据为解码出来的PCM数据,代表了声音的振幅。

它由一块固定长度的缓冲区构成,通过调用DSP控制模块的接口函数,得到头指针,在完成输出缓冲区的填充后,调用中断处理输出至I2S接口所连接的音频ADC芯片(立体声音频DAC和DirectDrive 耳机放大器)输出模拟声音。

3. 同步及元素解码同步及元素解码模块主要用于找出格式信息,并进行头信息解码,以及对元素信息进行解码。

这些解码的结果用于后续的无噪解码和尺度因子解码模块。

AAC的音频文件格式有以下两种:ADIF:Audio Data Interchange Format 音频数据交换格式。

这种格式的特征是可以确定的找到这个音频数据的开始,不需进行在音频数据流中间开始的解码,即它的解码必须在明确定义的开始处进行。

故这种格式常用在磁盘文件中。

ADTS:Audio Data Transport Stream 音频数据传输流。

这种格式的特征是它是一个有同步字的比特流,解码可以在这个流中任何位置开始。

它的特征类似于mp3数据流格式。

AAC的ADIF格式见下图:3.1 ADIF的组织结构AAC的ADTS的一般格式见下图:3.2 ADTS的组织结构图中表示出了ADTS一帧的简明结构,其两边的空白矩形表示一帧前后的数据。

ADIF和ADTS的header是不同的。

它们分别如下所示:3.3 ADIF的头信息3.4 ADTS的固定头信息ADTS的可变头信息3.5 帧同步帧同步目的在于找出帧头在比特流中的位置,13818-7规定,aac ADTS格式的帧头为12比特的“1111 1111 1111”.3.6 头信息解码ADTS的头信息为两部分组成,其一为固定头信息,紧接着是可变头信息。

固定头信息中的数据每一帧都相同,而可变头信息则在帧与帧之间可变。

3.7 元素信息解码在AAC中,原始数据块的组成可能有六种不同的元素。

它们分别是SCE: Single Channel Element单通道元素。

单通道元素基本上只由一个ICS组成。

一个原始数据块最可能由16个SCE组成。

CPE: Channel Pair Element 双通道元素,由两个可能共享边信息的ICS和一些联合立体声编码信息组成。

一个原始数据块最多可能由16个SCE组成。

CCE: Coupling Channel Element 藕合通道元素。

代表一个块的多通道联合立体声信息或者多语种程序的对话信息。

LFE: Low Frequency Element 低频元素。

包含了一个加强低采样频率的通道。

DSE: Data Stream Element 数据流元素,包含了一些并不属于音频的附加信息。

PCE: Program Config Element 程序配置元素。

包含了声道的配置信息。

它可能出现在ADIF 头部信息中。

FIL: Fill Element 填充元素。

包含了一些扩展信息。

如SBR,动态范围控制信息等。

3.8 处理流程(1). 判断文件格式,确定为ADIF或ADTS(2). 若为ADIF,解ADIF头信息,跳至第6步。

(3). 若为ADTS,寻找同步头。

(4). 解ADTS帧头信息。

(5). 若有错误检测,进行错误检测。

(6). 解块信息。

(7). 解元素信息。

4.无噪声解码无噪编码就是哈夫曼编码,它的作用在于进一步减少尺度因子和量化后频谱的冗余,即将尺度因子和量化后的频谱信息进行哈夫曼编码。

全局增益编码成一个8位的无符号整数,第一个尺度因子与全局增益值进行差分编码后再使用尺度因子编码表进行哈夫曼编码。

后续的各尺度因子都与前一个尺度因子进行差分编码。

量化频谱的无噪编码有两个频谱系数的划分。

其一为4元组和2元组的划分,另一个为节划分。

对前一个划分来说,确定了一次哈夫曼表查找出的数值是4个还是2个。

对后一个划分来说,确定了应该用哪一个哈夫曼表,一节中含有若干的尺度因子带并且每节只用一个哈夫曼表。

4.1 分段无噪声编码将输入的1024个量化频谱系数分为几个段(section),段内的各点均使用同一个哈夫曼表,考虑到编码效率,每一段的边界最好同尺度因子带的边界重合。

所以每一段必段传送信息应该有:段长度,所在的尺度因子带,使用的哈夫曼表。

4.2 分组和交替分组是指忽略频谱系数所在窗,将连续的,具有相同尺度因子带的频谱系数分为一组放在一起,共享一个尺度因子从而得到更好的编码效率。

这样做必然会引起交替,即本来是以c[组][窗][尺度因子带][ 系数索引]为顺序的系数排列,变为将尺度因子带同的系数放在一起:c[组][尺度因子带][窗][ 系数索引]这样就引起了相同窗的系数的交替。

4.3大量化值的处理大量化值在AAC中有两种处理方法:在哈夫曼编码表中使用escape标志或使用脉冲escape方法。

前者跟mp3编码方法相似,在许多大量化值出现时采用专门的哈夫曼表,这个表暗示了它的使用将会在哈夫曼编码后面跟跟一对escape值及对值的符号。

在用脉冲escape方法时,大数值被减去一个差值变为小数值,然后使用哈夫曼表编码,后面会跟一个脉冲结构来帮助差值的还原。

无噪解码的流程图如下:无噪声解码流程图5.尺度因子解码及逆量化在aac编码中,逆量化频谱系数是由一个非均匀量化器来实现的,在解码中需进行其逆运算。

即保持符号并进行4/3次幂运算。

在频域调整量化噪声的基本方法就是用尺度因子来进行噪声整形。

尺度因子就是一个用来改变在一个尺度因子带的所有的频谱系数的振幅增益值。

使用尺度因子这种机制是为了使用非均匀量化器在频域中改变量化噪声的比特分配。

5.1 尺度因子带(scalefactor-band)频率线根据人耳的听觉特性被分成多个组,每个组对应若干个尺度因子,这些组就叫做尺度因子带。

为了减少信息含有短窗的边信息,连续的短窗可能会被分为一组,即将若干个短窗当成一个窗口一起传送,然后尺度因子将会作用到所有分组后的窗口去。

5.2 反量化公式:x_invquant = sign(x_quant) * | x_quant| ^(4/3)其中x_invquant 表示反量化的结果sign (x)表示取x的符号^ 表示幂运算5.3 应用尺度因子公式:x_rescal = x_invquant * gaingain = 2 ^ (0.25 * (sf – SF_OFFSET))其中x_rescal 为应用了尺度因子公式之后的值gain 为一个增益sf 为尺度因子值SF_OFFSET为一个常数,设为1006、联合立体声解码联合立体声有两种,M/S stereo(中间旁道立体声)和intensity stereo(强度立体声)6.1 M/S stereo在M_S立体声模式中,传送的是规格化的中间/旁边声道的信息,计算公式如下:其中,l, r表示转换后的左右声道值m表示中间声道值s表示旁边声道值6.2 Intensity stereo在强度立体声模式中,左声道传的是幅值,右声道的scalefactor传的是立体声的位置is_pos。

如果仅在一个指定了common_window为1的CPE中的右通道中指定哈夫曼表为INTENSITY_HCB或INTENSITY_HCB2,则解码时使用强度立体声模式。

其计算公式如下:is_pos += dpcm_is_posscale = invert_intensity * 0.5 ^(0.25 * ispos)r_spec = scale * l_spec从完全备份中还原从完全备份中还原数据库非常简单,在9.3.2节中会详细地is_pos是右声道传送的scalefactordpcm_is_pos是上一个is_pos,初值为0scale 为强度因子invert_intensity为是否反转哈夫曼表(表14和表15)这个变量由ms_used指定,关系为:invert_intensity = 1 –2 * ms_used,另外,当ms_mask_present 为0时,invert_intensity恒为1。

6.3 处理流程联合立体声解码流程图7、PNSPNS(Perceptual Noise Substitution) 知觉噪声替换模块是一种以参数编码的方式模拟噪声的模块。

在判别出音频值中的噪声后,将些噪声不进行量化编码,而是采用一些参数告诉解码器端这是某种噪声,然后解码器端将会对这些噪声用一些随机的编码来制造出这一类型的噪声。

在具体操作上,PNS模块对每个尺度因子带侦测频率4kHz以下的信号成分。

如果这个信号既不是音调,在时间上也无强烈的能量变动,就被认为是噪声信号。

其信号的音调及能量变化都在心理声学模型中算出。

在解码中,如果发现使用了哈夫曼表13(NOISE_HCB),则表明使用了PNS。

由于M/S立体声解码与PNS解码互斥,故可以用参数ms_used来表明是否两个声道都用同样的PNS。

如果ms_used参数为1,则两个声道会用同样的随机向量来生成噪声信号。

PNS的能量信号用noise_nrg来表示,如果使用了PNS,则能量信号将会代替各自的尺度因子来传送。

噪声能量编码同尺度因子一样,采用差分编码的方式。

第一个值同样为全局增益值。

它同强度立体声位置值及尺度因子交替地放在一起,但对差分解码来说又彼此忽略。

即下一个噪声能量值以上一个噪声能量值而不是强度立体声位置或尺度因子为标准差分解码。

随机能量将会在一个尺度因子带内产生noise_nrg所计算出的平均能量分布。

相关文档
最新文档