音频基础知识及编码原理
音质设计专业知识点

音质设计专业知识点音质设计是音频技术领域中的重要环节,它关注于如何使音频产品的音质达到最佳效果。
音质设计需要掌握一系列相关的专业知识点,本文将介绍其中一些主要内容。
一、声音基础知识声音是由空气中的震动引起的,它通过传播到人耳中刺激我们的听觉系统而被感知。
声音的基本特性包括频率、振幅、波形和声音质量。
频率决定声音的音调高低,振幅决定声音的音量大小,波形描述了声音的形状,声音质量则涉及声音的纯度和明亮度等因素。
二、音频编码与解码音频编码是将声音信号转换为数字信号的过程,而音频解码则是将数字信号转换回声音信号的过程。
常见的音频编码与解码格式包括MP3、AAC、FLAC等。
音频编码与解码的目的是在保证音质的前提下,尽可能减小文件大小,方便存储和传输。
三、音频采样率与比特率音频采样率指的是每秒钟采集的样本数,常见的采样率有44.1kHz和48kHz。
较高的采样率可以更准确地还原声音,但同时也增加了文件的大小。
音频比特率则表示每秒钟对音频进行编码所需的数据量,常见的比特率有128kbps和320kbps等。
较高的比特率可以提高音频的质量,但也会增加数据的大小。
四、声音增强技术声音增强技术包括均衡器、压缩器和混响器等。
均衡器可以调节不同频率的音量,以改变声音的整体平衡。
压缩器可以控制音频信号的动态范围,使音频的声音更为平稳。
混响器则可以模拟不同的音源环境,为音频添加空间感。
五、音频编辑与混音音频编辑与混音是音频制作中的重要环节。
音频编辑是对原始音频素材进行剪辑、修剪和变换等操作,以满足制作需求。
混音则是将多个音频轨道进行融合和平衡,达到最终的音频效果。
六、音频效果器音频效果器是一种可以改变声音特性的设备或软件。
常见的音频效果器包括均衡器、失真器、合唱器和延迟效果器等。
它们可以为声音增添丰富的音色和效果,使音频更具表现力和艺术感。
七、声学原理与房间声学声学原理研究声音在空间中的传播与反射等特性。
对音质设计而言,理解声学原理有助于优化音频的环境效果和空间感。
数字音频基础知识

第一章数字音频基础知识重要内容⏹声音基础知识⏹结识数字音频⏹数字音频专业知识第1节声音基础知识1.1 声音旳产生⏹声音是由振动产生旳。
物体振动停止,发声也停止。
当振动波传到人耳时,人便听到了声音。
⏹人能听到旳声音,涉及语音、音乐和其他声音(环境声、音效声、自然声等),可以分为乐音和噪音。
✦乐音是由规则旳振动产生旳,只包具有限旳某些特定频率,具有拟定旳波形。
✦噪音是由不规则旳振动产生旳,它包具有一定范畴内旳多种音频旳声振动,没有拟定旳波形。
1.2 声音旳传播⏹声音靠介质传播,真空不能传声。
✦介质:可以传播声音旳物质。
✦声音在所有介质中都以声波形式传播。
⏹音速✦声音在每秒内传播旳距离叫音速。
✦声音在固体、液体中比在气体中传播得快。
✦15ºC 时空气中旳声速为340m/s 。
1.3 声音旳感知⏹外界传来旳声音引起鼓膜振动经听小骨及其他组织传给听觉神经,听觉神经再把信号传给大脑,这样人就听到了声音。
⏹双耳效应旳应用:立体声⏹人耳能感受到(听觉)旳频率范畴约为20Hz~20kHz,称此频率范畴内旳声音为可听声(audible sound)或音频(audio),频率<20Hz声音为次声,频率>20kHz声音为超声。
⏹人旳发音器官发出旳声音(人声)旳频率大概是80Hz~3400Hz。
人说话旳声音(话音voice / 语音speech)旳频率一般为300Hz~3000 Hz(带宽约3kHz)。
⏹老式乐器旳发声范畴为16Hz (C2)~7kHz(a5),如钢琴旳为27.5Hz (A2)~4186Hz(c5)。
1.4 声音旳三要素⏹声音具有三个要素:音调、响度(音量/音强)和音色⏹人们就是根据声音旳三要素来辨别声音。
音调(pitch )⏹音调:声音旳高下(高音、低音),由“频率”(frequency)决定,频率越高音调越高。
✦声音旳频率是指每秒中声音信号变化旳次数,用Hz 表达。
例如,20Hz 表达声音信号在1 秒钟内周期性地变化20 次。
音频基础知识及编码原理

音频基础知识及编码原理音频是我们日常生活中不可或缺的一部分,它通过我们的耳朵传达声音信息。
音频的基础知识和编码原理对于我们理解音频的特性和进行音频处理都是非常重要的。
一、音频基础知识1.音频信号:音频信号是一种连续时间变化的模拟信号,它可以通过声音的压力波来传递声音信息。
在计算机中,音频信号会被采样和量化为离散的数字信号。
2.音频频率:音频频率是指声音中的振荡周期数量。
它以赫兹(Hz)为单位表示,描述了声波的频率。
人类可以听到的频率范围约为20Hz到20kHz,不同的生物和设备有着不同的频率感知范围。
3.音频幅度:音频幅度是指声音的强度或振幅。
它可以通过声音的声压级来表示,单位为分贝(dB)。
声压级越高,声音就越大;声压级越低,声音就越小。
4. 音频声道:音频声道是指音频信号的通道数量。
单声道(mono)只有一个通道,立体声(stereo)有两个通道,多声道(multi-channel)有三个或更多个通道。
5.音频采样率:音频采样率是指音频信号在单位时间内进行采样的次数。
它以赫兹(Hz)为单位表示,描述了数字音频的采样精度。
常见的采样率有44.1kHz和48kHz,高采样率可以提高音频的质量。
二、音频编码原理音频编码是将模拟音频信号转换为数字音频信号的过程。
在音频编码中,采样和量化是两个主要步骤。
1.采样:采样是将连续时间的模拟音频信号转换为离散时间的数字音频信号的过程。
采样率决定了采样的频率,即每秒钟采样的次数。
采样过程会将每个采样点的幅度值记录下来,形成一个采样序列。
2.量化:量化是将连续的模拟音频信号转换为离散的数字音频信号的过程。
它将每个采样点的幅度值映射到一个有限的数值范围内,通常使用固定的比特数来表示每个采样点的幅度。
3.压缩编码:为了减小数字音频的文件大小,音频信号通常会经过压缩编码的处理。
压缩编码可以通过去除信号中的冗余信息或者使用有损压缩算法来实现。
常见的音频压缩编码格式有MP3、AAC和FLAC等。
音频加密传输软件的基础知识,原理和理论

音频加密传输软件的基础知识,原理和理论音频加密传输软件是一种用于保护音频信息安全的技术工具。
其原理和理论基于信息加密和解密的技术,以及音频数据的传输和处理。
一.基础知识音频文件:音频文件是一种存储数字化音频数据的文件格式,常见的有MP3、WAV、WMA等。
音频加密传输软件需要对音频文件进行加密和解密操作。
音频编码:音频编码是将模拟音频信号转换成数字音频信号的过程。
对于音频加密传输软件而言,加密和解密操作通常是在数字音频信号上进行。
数字音频信号:数字音频信号是经过采样、量化和编码等过程转换成数字形式的音频信号。
音频加密传输软件需要对数字音频信号进行加密和解密操作。
二.原理和理论对称加密和非对称加密:音频加密传输软件可以采用对称加密和非对称加密两种方式进行加密和解密操作。
对称加密:使用同一个密钥对音频数据进行加密和解密,密钥在发送方和接收方之间需要提前共享。
常见的对称加密算法有AES、DES 等。
非对称加密:使用一对密钥,公钥用于加密,私钥用于解密。
公钥可以公开,而私钥只有接收方拥有。
常见的非对称加密算法有RSA、ECC等。
数字签名:为了确保音频文件的完整性和身份验证,音频加密传输软件可以使用数字签名技术。
发送方使用私钥对音频文件进行签名,接收方使用发送方的公钥进行验证。
数字水印:为了确保音频文件的版权保护和溯源,音频加密传输软件可以使用数字水印技术。
将唯一的标识信息嵌入到音频文件中,使得可以追踪和确认文件的来源。
压缩和解压缩:音频加密传输软件通常需要对音频文件进行压缩和解压缩操作,以降低数据传输的带宽和存储需求。
总之,音频加密传输软件的基础知识包括音频文件、音频编码和数字音频信号等内容,其原理和理论涉及加密和解密技术、对称加密和非对称加密、数字签名和数字水印等技术。
同时,还需要考虑音频文件的压缩和解压缩操作,以实现高效、安全的音频传输。
基础知识:媒体编码技术简介

媒体编码技术简介在日常生活中,我们经常会接触到各种媒体,比如电视、音乐、电影等。
然而,这些媒体是如何被传输和播放的呢?这就涉及到媒体编码技术。
媒体编码技术是一种将信息编码成数字形式,以便传输和存储的技术。
本文将介绍媒体编码技术的基本概念和常见的编码格式。
媒体编码技术实际上是将模拟信号转换为数字信号的过程。
模拟信号是连续的信号,比如我们的声音和图像都是模拟信号。
而数字信号则是离散的信号,它将连续的模拟信号通过采样、量化和编码等过程转换为数字形式。
这样,数字信号就可以通过传输线路传输和存储,同时也便于计算机进行处理。
在媒体编码技术中,常见的编码格式有音频编码、视频编码和图像编码。
音频编码是将声音信号转换为数字形式的过程。
常见的音频编码格式有MP3、AAC和WAV等。
视频编码则是将视频信号转换为数字形式的过程。
常见的视频编码格式有、MPEG-2和AVC等。
图像编码是将图像信号转换为数字形式的过程。
常见的图像编码格式有JPEG、PNG 和GIF等。
这些编码格式的选择取决于不同的需求。
例如,对于音频编码,人们通常会选择小文件体积和较高音频质量的编码格式,比如MP3。
而对于视频编码,人们通常会选择高压缩比和较好视觉质量的编码格式,比如。
图像编码则更多考虑图像的保真度和文件大小,因此可以根据具体需求选择合适的编码格式。
同时,媒体编码技术也在不断进步和发展。
为了提高音频、视频和图像的质量,人们不断提出新的编码算法和技术。
例如,在音频编码领域,Opus编码器被广泛应用于实时音频通信,其能够提供更好的音频质量和更低的延迟。
在视频编码领域,编码器被用于提供更高的画质和更高的压缩率。
除了传输和存储,媒体编码技术还应用于多媒体应用领域。
例如,在视频会议中,通过音频和视频的编码,人们可以远程进行实时的沟通和交流。
在流媒体应用中,通过音频和视频的编码,人们可以通过互联网实时或非实时地收听音乐和观看视频。
在娱乐领域,通过音频和视频的编码,人们可以在电视、电影和音乐播放器上欣赏高质量的音视频内容。
电视音频技术的基础知识

电视音频技术的基础知识电视音频技术是指在电视广播和电视节目制作中所涉及的音频相关技术。
音频在电视中扮演着重要的角色,它不仅可以提供声音的传输,还能为观众带来更具沉浸感的观影体验。
以下是一些关于电视音频技术的基础知识。
1. 音频信号:在电视中,声音通过电子设备被转换为可传输的电信号。
这些电信号可以是模拟信号或数字信号。
模拟信号是连续的波形,而数字信号是用离散的数值来表示声音的。
2. 音频编码:为了将声音传输或存储,音频编码技术被使用。
音频编码是将声音信号转换成数字格式的过程。
其中一种常用的音频编码格式是MPEG(Moving Picture Experts Group)音频编码,如MP3。
3. 音频采样率:音频采样率指音频信号在一秒钟内被采样的次数。
常见的音频采样率有44.1kHz和48kHz。
较高的采样率能提供更好的音质,但也需要更多的存储空间和传输带宽。
4. 立体声和多声道声音:电视广播中最常见的音频格式是立体声,它将声音分为左右两个声道进行传输。
而在电影院和一些家庭影院系统中,多声道音频技术被使用。
多声道音频可以提供更真实的环绕声效果,常见的多声道配置包括5.1声道和7.1声道。
5. 声音混合:在电视广播和电视节目制作中,常常需要将不同来源的声音进行混合。
声音混合是指将多个音频信号合并成单一的混合信号。
这样可以控制音量和平衡不同音频源之间的比例。
6. 音频处理:音频处理是指对音频信号进行滤波、均衡和增强等技术。
音频处理可以改善音质,使声音更加清晰和饱满。
7. 音频同步:音频同步是指在电视广播和电视节目制作中保持音频和视频之间的同步。
这是非常重要的,以确保观众可以准确地听到与所看到的画面相符的声音。
总结起来,电视音频技术是一项复杂而重要的技术,它涉及到音频信号的传输、编码、采样率、立体声和多声道音频以及音频处理等方面。
了解这些基础知识可以帮助我们更好地理解和欣赏电视音频的质量和效果。
电视音频技术是电视广播和电视节目制作中至关重要的一部分。
基础知识:媒体编码技术简介(一)

媒体编码技术简介在现代社会中,媒体编码技术已经成为了我们日常生活中不可或缺的一部分。
从电视节目到在线视频,媒体编码技术的应用无处不在。
本文将对媒体编码技术进行一个简要的介绍,帮助读者更好地了解这个领域的基础知识。
一、媒体编码的基础概念首先,我们需要了解媒体编码是什么。
简单来说,媒体编码是将模拟信号(如音频、视频)转换为数字信号的过程。
这样做的目的是将信号进行压缩,以便更有效地存储和传输。
媒体编码技术涉及到很多方面,包括音频编码、视频编码以及图像编码等等。
二、音频编码技术音频编码技术主要是指将声音信号转换为数字信号的过程。
其中最常见的音频编码技术是MP3。
MP3是一种有损压缩技术,可以将音频信号压缩至原始文件大小的一半左右,同时保持较高质量的音频效果。
除了MP3,还有其他一些音频编码技术,如AAC、WMA等。
三、视频编码技术与音频编码技术类似,视频编码技术将视频信号转换为数字信号。
最常见的视频编码技术是,它被广泛应用于各种视频传输和存储媒体中。
是一种有损压缩技术,可以将视频信号压缩至原始文件大小的很小一部分,并且保持相对较高的视觉质量。
此外,还有其他视频编码技术,如VP9、AV1等。
四、图像编码技术图像编码技术是将图像信号转换为数字信号的过程。
最常见的图像编码技术是JPEG。
JPEG是一种有损压缩技术,可以将图像信号压缩至较小的文件大小,并且在视觉上保持较高的质量。
此外,还有其他一些图像编码技术,如PNG、GIF等。
五、应用领域媒体编码技术在很多领域都有广泛的应用。
在移动通信领域,媒体编码技术被用于将音频、视频信号传输至移动设备上。
在网络视频领域,媒体编码技术可以将视频信号进行压缩,以便在不同的网络环境下进行传输和播放。
此外,媒体编码技术还在数字电视、网络电视以及在线视频平台等方面有广泛应用。
六、发展趋势随着科技的不断发展,媒体编码技术也在不断进步。
随着互联网的普及和带宽的提升,人们对高质量、高效率的媒体编码技术需求越来越高。
数字音频技术基础

音频的基础知识
MIDI基本简介
MIDI仅仅是一个通信标准,它是由电子乐器制 造商们建立起来的,用以确定电脑音乐程序、合成 器和其他电子音响的设备互相交换信息与控制信号 的方法。 MIDI系统实际就是一个作曲、配器、电子模拟 的演奏系统。从一个MIDI设备转送到另一个MIDI设 备上去的数据就是MIDI信息。MIDI数据不是数字的
25
音频的基础知识
音频文件格式简介
*.MID、*.RMI、*.CMF、*.RCP 这些文件格式属于MIDI文件范畴,这类文件主要应用于计 算机音乐创作,用户可以通过专业的音频创作软件实现谱曲,
或直接通过声卡MIDI接口将外部音序器演奏的乐曲输入到计算
机中完成音乐创作 MOD MOD的结构类似于MIDI,是一种类似于波表的音乐格式,
•音频信号的数字处理
(2)量化
采样只是在时间上实现了离散化。其音频脉冲信号的 幅度仍然是模拟的,因此,还必须对幅度进行离散化处 理,这个过程称为量化。
量化的过程如下:
16
音频的基础知识
•音频信号的数字处理
(3)编码
编码:采样和量化之后的音频信号还必需转换为数字 编码脉冲才是数字信号,这一转换过程称为编码。最简
杂波不会积累
12
音频的基础知识
音频信号的A/D和D/A变换:
• A/D变换 模拟信号变换成数字信号
• D/A变换 数字信号转换为模拟信号
2).声音数字化过程
模拟信号
采样
量化
A/D ADC D/A DAC
编码
数字信号
模拟信号
声音是如何数字化的呢?
数字信号
图1-10 模拟信号的数字处理过程
13
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1 比特率:表示经过编码(压缩)后的音频数据每秒钟需要用多少个比特来表示,单位常为kbps。
2 响度和强度:声音的主观属性响度表示的是一个声音听来有多响的程度。
响度主要随声音的强度而变化,但也受频率的影响。
总的说,中频纯音听来比低频和高频纯音响一些。
3 采样和采样率:采样是把连续的时间信号,变成离散的数字信号。
采样率是指每秒钟采集多少个样本。
Nyquist采样定律:采样率大于或等于连续信号最高频率分量的2倍时,采样信号可以用来完美重构原始连续信号。
二、常见音频格式1. WAV格式,是微软公司开发的一种声音文件格式,也叫波形声音文件,是最早的数字音频格式,被Windows平台及其应用程序广泛支持,压缩率低。
2. MIDI是Musical Instrument Digital Interface的缩写,又称作乐器数字接口,是数字音乐/电子合成乐器的统一国际标准。
它定义了计算机音乐程序、数字合成器及其它电子设备交换音乐信号的方式,规定了不同厂家的电子乐器与计算机连接的电缆和硬件及设备间数据传输的协议,可以模拟多种乐器的声音。
MIDI文件就是MIDI格式的文件,在MIDI文件中存储的是一些指令。
把这些指令发送给声卡,由声卡按照指令将声音合成出来。
3. MP3全称是MPEG-1 Audio Layer 3,它在1992年合并至MPEG规范中。
MP3能够以高音质、低采样率对数字音频文件进行压缩。
应用最普遍。
4. MP3Pro是由瑞典Coding科技公司开发的,其中包含了两大技术:一是来自于Coding科技公司所特有的解码技术,二是由MP3的专利持有者法国汤姆森多媒体公司和德国Fraunhofer集成电路协会共同研究的一项译码技术。
MP3Pro可以在基本不改变文件大小的情况下改善原先的MP3音乐音质。
它能够在用较低的比特率压缩音频文件的情况下,最大程度地保持压缩前的音质。
5. MP3Pro是由瑞典Coding科技公司开发的,其中包含了两大技术:一是来自于Coding科技公司所特有的解码技术,二是由MP3的专利持有者法国汤姆森多媒体公司和德国Fraunhofer集成电路协会共同研究的一项译码技术。
MP3Pro可以在基本不改变文件大小的情况下改善原先的MP3音乐音质。
它能够在用较低的比特率压缩音频文件的情况下,最大程度地保持压缩前的音质。
6. WMA (Windows Media Audio)是微软在互联网音频、视频领域的力作。
WMA格式是以减少数据流量但保持音质的方法来达到更高的压缩率目的,其压缩率一般可以达到1:18。
此外,WMA还可以通过DRM(Digital Rights Management)保护版权。
7. RealAudio是由Real Networks公司推出的一种文件格式,最大的特点就是可以实时传输音频信息,尤其是在网速较慢的情况下,仍然可以较为流畅地传送数据,因此RealAudio 主要适用于网络上的在线播放。
现在的RealAudio文件格式主要有RA(RealAudio)、RM (RealMedia,RealAudio G2)、RMX(RealAudio Secured)等三种,这些文件的共同性在于随着网络带宽的不同而改变声音的质量,在保证大多数人听到流畅声音的前提下,令带宽较宽敞的听众获得较好的音质。
8. Audible拥有四种不同的格式:Audible1、2、3、4。
网站主要是在互联网上贩卖有声书籍,并对它们所销售商品、文件通过四种专用音频格式中的一种提供保护。
每一种格式主要考虑音频源以及所使用的收听的设备。
格式1、2和 3采用不同级别的语音压缩,而格式4采用更低的采样率和MP3相同的解码方式,所得到语音吐辞更清楚,而且可以更有效地从网上进行下载。
Audible 所采用的是他们自己的桌面播放工具,这就是Audible Manager,使用这种播放器就可以播放存放在PC或者是传输到便携式播放器上的Audible格式文件9.AAC实际上是高级音频编码的缩写。
AAC是由Fraunhofer IIS-A、杜比和AT&T共同开发的一种音频格式,它是MPEG-2规范的一部分。
AAC所采用的运算法则与MP3的运算法则有所不同,AAC通过结合其他的功能来提高编码效率。
AAC的音频算法在压缩能力上远远超过了以前的一些压缩算法(比如MP3等)。
它还同时支持多达48个音轨、15个低频音轨、更多种采样率和比特率、多种语言的兼容能力、更高的解码效率。
总之,AAC可以在比MP3文件缩小30%的前提下提供更好的音质。
10. Ogg Vorbis 是一种新的音频压缩格式,类似于MP3等现有的音乐格式。
但有一点不同的是,它是完全免费、开放和没有专利限制的。
Vorbis 是这种音频压缩机制的名字,而Ogg则是一个计划的名字,该计划意图设计一个完全开放性的多媒体系统。
VORBIS 也是有损压缩,但通过使用更加先进的声学模型去减少损失,因此,同样位速率(Bit Rate)编码的OGG与MP3相比听起来更好一些。
11. APE是一种无损压缩音频格式,在音质不降低的前提下,大小压缩到传统无损格式 WAV 文件的一半.12 .FLAC即是Free Lossless Audio Codec的缩写,是一套著名的自由音频无损压缩编码,其特点是无损压缩。
三、音频编码基本原理语音编码致力于:降低传输所需要的信道带宽,同时保持输入语音的高质量。
语音编码的目标在于:设计低复杂度的编码器以尽可能低的比特率实现高品质数据传输。
1 静音阈值曲线:只在安静环境下,人耳在各个频率能听到声音的阈值。
2 临界频带由于人耳对不同频率的解析度不同,MPEG1/Audio将22khz内可感知的频率范围,依不同编码层,不同取样频率,划分成23~26个临界频带。
下图列出理想临界频带的中心频率与频宽。
图中可看到,人耳对低频的解析度较好。
图53 频域上的掩蔽效应:幅值较大的信号会掩蔽频率相近的幅值较小的信号,如下图:4 时域上的遮蔽效应:在一个很短的时间内,若出现了2个声音,SPL(sound pressure level)较大的声音会掩蔽SPL较小的声音。
时域掩蔽效应分前向掩蔽(pre-masking)和后向掩蔽(post-masking),其中post-masking的时间会比较长,约是pre-masking的10倍。
时域遮蔽效应有助于消除前回音。
四、编码基本手段1 量化和量化器量化和量化器:量化是把离散时间上的连续信号,转化成离散时间上的离散信号。
常见的量化器有:均匀量化器,对数量化器,非均匀量化器。
量化过程追求的目标是:最小化量化误差,并尽量减低量化器的复杂度(这2者本身就是一个矛盾)。
(a)均匀量化器:最简单,性能最差,仅适应于电话语音。
(b)对数量化器:比均匀量化器复杂,也容易实现,性能比均匀量化器好。
(c)Non-uniform量化器:根据信号的分布情况,来设计量化器。
信号密集的地方进行细致的量化,稀疏的地方进行粗略量化。
2 语音编码器语音编码器分为三种类形:(a)波形编器;(b)声码器;(c)混合编码器。
波形编码器以构造出背景噪单在内的模拟波形为目标。
作用于所有输入信号,因此会产生高质量的样值并且耗费较高的比特率。
而声码器(vocoder)不会再生原始波形。
这组编码器会提取一组参数,这组参数被送到接收端,用来导出语音产生模形。
声码器语音质量不够好。
混合编码器,它融入了波形编码器和声器的长处。
波形编码器波形编码器的设计常独立于信号。
所以适应于各种信号的编码而不限于语音。
1 时域编码a)PCM:pulse code modulation,是最简单的编码方式。
仅仅是对信号的离散和量化,常采用对数量化。
b)DPCM:differential pulse code modulation,差分脉冲编码,只对样本之间的差异进行编码。
前一个或多个样本用来预测当前样本值。
用来做预测的样本越多,预测值越精确。
真实值和预测值之间的差值叫残差,是编码的对象。
c)ADPCM:adaptive differential pulse code modulation,自适应差分脉冲编码。
即在DPCM的基础上,根据信号的变化,适当调整量化器和预测器,使预测值更接近真实信号,残差更小,压缩效率更高。
(2)频域编码频域编码是把信号分解成一系列不同频率的元素,并进行独立编码。
a)sub-band coding:子带编码是最简单的频域编码技术。
是将原始信号由时间域转变为频率域,然后将其分割为若干个子频带,并对其分别进行数字编码的技术。
它是利用带通滤波器(BPF)组把原始信号分割为若干(例如m个)子频带(简称子带)。
将各子带通过等效于单边带调幅的调制特性,将各子带搬移到零频率附近,分别经过BPF(共m个)之后,再以规定的速率(奈奎斯特速率)对各子带输出信号进行取样,并对取样数值进行通常的数字编码,其设置m路数字编码器。
将各路数字编码信号送到多路复用器,最后输出子带编码数据流。
对不同的子带可以根据人耳感知模型,采用不同量化方式以及对子带分配不同的比特数。
b)transform coding:DCT编码。
6 声码器channel vocoder:利用人耳对相位的不敏感。
homomorphic vocoder:能有效地处理合成信号。
formant vocoder:以用语音信号的绝大部分信息都位于共振峰的位置与带宽上。
linear predictive vocoder:最常用的声码器。
7 混合编码器波形编码器试图保留被编码信号的波形,能以中等比特率(32kbps)提供高品质语音,但无法应用在低比特率场合。
声码器试图产生在听觉上与被编码信号相似的信号,能以低比特率提供可以理解的语音,但是所形成的语音听起来不自然。
混合编码器结合了2者的优点。
RELP:在线性预测的基础上,对残差进行编码。
机制为:只传输小部分残差,在接受端重构全部残差(把基带的残差进行拷贝)。
MPC:multi-pulse coding,对残差去除相关性,用于弥补声码器将声音简单分为voiced和unvoiced,而没有中间状态的缺陷。
CELP:codebook excited linear prediction,用声道预测其和基音预测器的级联,更好逼近原始信号。
MBE:multiband excitation,多带激励,目的是避免CELP的大量运算,获得比声码器更高的质量。