音频基础知识

音频基础知识
音频基础知识

Audio知识简介

干一行专一行VS学一行丢一行

第一部分:HTS基本概念:

HTS(Home Theater System)通俗的讲就是将电影院搬到家里,然后就成了家庭影院,就公司的产品而言可以简单的理解为:DVD/BD player + 功放+ Speaker 组成:节目源(碟片+碟机等)+ 放声系统(AV功放+音箱组等)+显示部分(电视机/投影仪)

配置家庭影院的好处:高清晰的如水晶般的画面,环绕的立体声,清晰的人声,震撼的低音效果,可以提供几乎身临其境的感觉。在强烈的视听冲击下,能感受到现实和虚拟的完美交汇,触发更深的人生感悟。

第二部分:Audio

百度定义:

1.Audio指人说话的声音频率,通常指300Hz---3400Hz的频带

2.指存储声音内容的文件

3.在某些方面能指作为波滤的振动。

音频这个专业术语,人类能够听到的所有声音都称之为音频,它可能包括噪音,声音被录制下来以后,无论是说话声,歌声乐器都可以通过数字音乐软件处理。把它制作成CD,这时候所有的声音没有改变,因为CD本来就是音频文件的一种类型。而音频只是储存在计算机里的声音,演讲和音乐,如果有计算机加上相应的音频卡,可以把所有的声音录制下来,声音的声学特性,音的高低都可以用计算机硬盘文件的方式储存下来,反过来,也可以把眄来的音频文件通过一定的音频程序播放,还原以前录下的声音。

Audio的分类:

按编码格式分类:

mp3,wav, aac, ogg, flac, aiff, ac3(亦称之Dolby digital), dts, pcm, Dolby true hd(HD), Dolby digital plus(HD), dts hd master audio(HD), dts hd high resolution audio(HD), dts hd low bit rate(HD)

多声道音频的分类:

C:center L: left front R: Right front

LS: Left surround RS: right surround S: surround(单个环绕声道)

LB:left back surround RB: right back surround

Cs: Center surround

1.带LFE声道的分法:根据码流中实际的通道数分

X的值为0/1,0表示不带LFE通道,1表示含LFE通道

1.x C 如1.0 为C,1.1为C+LFE

2.x->L+R

3.x->C+L+R

4.x->L+R+LS+RS

5.x->L+R+C+LS+RS

6.x->L+R+C+LS+RS+Cs

7.x->L+R+C+LS+RS+LB+RB

2.不带LFE声音的分法:根据喇叭摆放的位置分

其中C/L/R均摆放在前面,LS/RS/S/LB/RB均摆在两边/后面,如下图

1/0->C

2/0->L+R

3/0->C+L+R

2/1->L+R+S

2/2->L+R+LS+RS

3/1->L+R+C+S

3/2->L+R+C+LS+RS

3/3->L+R+C+LS+RS+Cs

3/4->L+R+C+LS+RS+LB+RB

3.声音信号的传输:

(1)定义及I2S总线构成:

I2S(Inter-IC Sound)总线是飞利浦公司为数字音频设备之间的音频数据传输而制定的一种总线标准,该总线专责于音频设备之间的数据人,广泛应用于各种多媒体系统。

一般包含三根CLK总线和多达四根的DATA总线,最多可以传输7.1通道的数

据。

MCLK(主时钟):(系统时钟Sys Clock),使系统间能够更好地同步。

SCLK(串行时钟):(位时钟BCLK),即对应数字音频的每一位数据,SCLK都有一个脉冲。SCLK的频率=2*采样频率*采样位数

目前我接触到的采样位数基本上都是32bit ,

LRCLK(左右时钟):用于切换左右的数据,LRCLK 为1表示正在传输左声道的数据,为0则表示传输的是右的数据,LRCLK的频率等于采样频率。

SDATA(串行数据):就是用二进制补码表示的音频数据。由于LRCLK定义为切换左右声道的数据,所以一根DATA线上可以传输两个通道的数据,即两个通道的声音。最多可以有四根DATA线,最多可以传输8个通道的数据(7.1声道)。

DATA线上通道传输的组合及顺序都有约定的组成:

DATA0:L/R DATA1:C/SUB DATA2:LS/RS DATA3:LB/RB

(DATA1上也有可能是LS/RS,DATA2上也可能会是C/SUB,具体得参考软件的输出及硬件原理图)

目前公司的AUDIO产品大多是2.0/2.1/5.1,分别需要1/2/3根DATA线

(2)三种频率之间的关系

LRCLK:等于采样频率,采样频率通常有以下几种:

8,000 Hz - 电话所用采样率, 对于人的说话已经足够

11,025 Hz

22,050 Hz - 无线电广播所用采样率

32,000 Hz - miniDV 数码视频 camcorder、DAT (LP mode)所用采样率

44,100 Hz - 音频 CD, 也常用于 MPEG-1 音频(VCD, SVCD, MP3)所用采样率

47,250 Hz - Nippon Columbia (Denon)开发的世界上第一个商用 PCM 录音机所用采样率

48,000 Hz - miniDV、数字电视、DVD、DAT、电影和专业音频所用的数字声音所用采样率

50,000 Hz - 二十世纪七十年代后期出现的3M 和Soundstream 开发的第一款商用数字录音机所用采样率

50,400 Hz - 三菱 X-80 数字录音机所用采样率

96,000 或者 192,000 Hz - DVD-Audio一些 LPCM DVD 音轨、BD-ROM(蓝光盘)音轨、和 HD-DVD (高清晰度 DVD)音轨所用采样率

2.8224 MHz - SACD、索尼和飞利浦联合开发的称为 Direct Stream Digital 的 1 位

sigma-delta modulation 过程所用采样率。

但是在公司接触比较多的只有以下几种采样频率:

1FS:32K/44.1KHz/48KHz 2FS: 64KHz/88.2KHz/96KHz

4FS: 128KHz/176.4KHz/192KHz

FS为frequency sample.

LRCLK:在高清码流,dolby true hd/dolby digital plus/dtshd等,又会有传输采样率与码流采样率。

默认情况:高电平时传输的是左声道的数据,低电平时传输的是右声道的数据。

传输采样率指的是这些码流还没有经过解码时的LRCLK。

码流采样率是指解完码之后,如高清码流解成PCM等之后的传输采样频率。

通常的传输采样率为4FS,即为128KHz/176.4KHz/192KHz。

MCLK与LRCLK的倍率关系一般为128/256/384/512

MCLK的值可以为8.192MHz / 16.384MHz/ 11.2896MHz /22.5792MHz/ 12.288MHz / 24.576MHz

虽然24.576*2,22.5792*2, 16.384*2MHz理论上存在,但是我看到这样的MCLK都是异常情况下的。(没有声音)

SCLK:=2*采样频率*采样位数(通常是32位)

=64*采样频率

(2.048MHz/4.096MHz/8.192MHz/2.8224MHz/5.6448MHz/11.2896M Hz/3.072MHz/6.144MHz/12.288MHz)

其中MCLK/SCLK/LRCLK三者之间的倍数关系很重要,如果声音出现异常或者没有声音,我们可以通过测量这些信号来指导我们调整软件。

例如:在ST309中,我们就要配置0x00reg来配置这些参数。

(3)三种IIS传输格式:

根据SDATA数据相对于LRCLK SCLK的位置不同,分为左对齐(使用较少),I2S格式(即飞利浦规定的格式),和右对齐(也叫日本格式,普通格式)

举例:标准格式:

左对齐格式:

以上是理论上的图形,以下是用三根探头的示波器测得的标准的I2S的图示。

第一根黄色线是LRCLK,第二根线是BCLK,第三根线是DATA。

从图中DATA是从BCLK的第二个周期开始的,很容易就看出来这个是属于标准的I2S格式。

3. SPDIF output/HDMI output

这里面的东西很多,我把我知道的注意事项写一下:

(1)BD player->spdif->BD HTS

spdif audio 设置成bitstream,

我们知道SPDIF只能传输标清的AUDIO,那么如果BD Player播放的是DTS HD/DOLBY true HD/Dolby digital Plus等高清信号时,BD player 此时输出的会是什么呢?其实传输的还是标清信号,如果是DOLBY TRUE HD的信号,那么会转成标清的AC3即DOLBY DIGITAL信号,同理DTS HD 会转成DTS的信号传输,高清的后环绕通道会丢失,且编码方式都将是标清时相应的编码方式。

注意SPDIF传输的是数字信号:

以下是一个比较正常的信号,看到图的高电平处有一个尖峰,(过冲,是信号经过磁珠,电容,电感等元件引起)

图中为48K的WAV文件的信号。

下图也是一种能够正常出声音的96K的WAV文件的信号图示。

信号能够大致分0/1

如下是一个不正常的同轴信号,信号幅度不一,区分不出0/1

(2)BD player->HDMI->BD HTS

HDMI audio设置成bitstream

SPDIF只能传输标清信号,HDMI是可以传输高清信号的,但是当HDMI audio设置成bitstream,播放高清信号输出的也并一定是高清信号,例如:播放DOLBY TRUE HD传输到BD HTS可能是标清信号AC3,

这里有一个条件就是resolution, 只有将BD Player的

setting->TV->resolution设置成1080I或者1080P,这样输出给BD HTS 的信号才是高清信号。

第三部分:audio的处理。

这部分我将audio的音效处理,音量处理,增益平衡都包括了进来。

主要的处理内容有:

音效处理类:Dpl2 Dolby prologic 2/DVS dolby vitual speaker/EQ/Bass management/Delay/Tone Control

音量处理类:sound tuning/power derating/volume+/-

其他:DRC

DPL2:Dolby 的算法,DTS公司的类似算法为NEO6,Philips为Ambiound,

算法的用途为将2.X声道的数据转化成多通道声音的数据。用于5.1通道的HTS。

DPL2有以下几种模式:MOVIE MODE/MUSIC MODE/MATRIX MODE/VIRTUAL MODE/Pro Logic Emulation Mode

在CS 的DSP的系列芯片中DPL2只支持1FS/2FS。在4FS下调用DPL2是没有效果的。

在调用DPL2时,将两通道的数据转成5.1,此时DPL2的CENTER的声音会比较大,其他几个喇叭会相对减小,因为DPL2的作用是将LR相同的部分转至CENTER,

LR保留的只是不相同的部分,

调用DPL2 Movie和DPL2 Music,算法本身带有Delay. Movie有10---25ms的Delay, Music则存在0---10ms的Delay。

如下是用转门的DPL2测试碟53曲测试通道LS(相对LR),并将Delay 调整为5ms时的截图,DPL2的延时从图中看出为14.1MS(相对左右).

DVS:Dolby vitual Speaker,将多通道的声音数据转化成更少通道的数据(一般为两通道),并在听感上有环绕声的效果。当然有处理2.X/3.X等几种效果的DVS. 在DVS模式下如果输入的码流不是多通道的话,则需要DPL2将其转成多通道,再调用DVS算法。

用于2.1/5.1的BD HTS。

DVS有两种模式:reference mode/wide mode/bypass mode

Reference mode与wide mode的区别:(在于模拟出来的喇叭个数是不一样)如下图:

Speaker layout:系统中实际的喇叭数。

Discrete Channels:码流的通道

Virtualized Channels:虚拟出来的喇叭

在CS的DSP的系列芯片中DVS只支持1FS,在2FS/4FS下调用DVS都是没有效果的。

Bass management:低音管理,从L/R/LS/RS/C等通道中将低频的数据分离出来到SUBWOOFER的通道。

在SUBWOOFER通道里面的数据有两种:一种是通道低音管理分离出来的低频

数据,另外一种就是DOLBY/DTS 等里面的专门的.1数据,即LFE通道。

举个例子:在AUX/MP3 LINK这些模拟SOURCE,由于传输的通道最多两个,左声道以及右声道,不存在LFE通道,必须用到低音管理,SUBWOOFER才有可能出声音!

而在SPDIF/HDMI等外部SOURCE下如果传输的是DOLBY等AC3的流时,由于本来就已经存在LFE的通道,所以就不需要低音管理,SUBWOOFER也会有正常的重低音输出。

DELAY:分通道DELAY和LIPSYNC

通道DELAY,所有的DELAY值都是相对于左通道而言的。

LIPSYNC:唇齿同步,用于调整说话的嘴形与声音的同步

在软件里面这两个功能都是用相同的寄存器去控制的。

通常有两种单位,M和MS,这两个单位都是可以进行换算的

因为声音的传输速度为340M/S 而MS毫秒的

10M = 30MS*340M/S = 0.03*340 = 34*0.3 = 10M

所以10M对应30MS

Sound tuning:这个名词引用于Philips,在我们公司这个名词的含义是:在各个source在不同的码流,以及不同的surround模式下(还有可能要不同的码流通道数)在某一级音量下达到某一个功率指标。

但是这个名词对于PHILIPS来说含义要多加一层。除了以上的功能之外还包括PRESET EQ和EQ,对于Philips,他们要的sound tuning OK的软件就是包含所有要调试的音量以及音效功能都OK的软件。(此乃经验教训)

Power derating:过功率控制,通过一个硬件检测脚一直检测当前的功率,如果超过一定功率(PHILIPS规格要求是额定功率的半功率)超过一定时间(PHILIPS通常要求是一分钟或者半分钟),软件自动且缓慢降低当前功率直到低于额定功率的半功率。

第四部分:音频处理流程

录音技术基础知识

录音技术基础知识

录音技术基础知识 基本录音/多轨录音 无论是盒式磁带录音机、数码多轨录音机、硬盘录音机,还是其它录音媒体,其录音过程大致相同,目的都是将声音获取到缩混带上。 做此工作,录音工程师采用两个步骤: 1、多轨录音——各种乐器和人声的录音与叠加录音的过程,每种录音都有各自的“音轨”。 2、多轨缩混——将这些多轨内容同步录在一组立体声轨上(“母带录音”),可以用某种播放系统如CD播放机或磁带卡座等进行再制作。 录音基础/多轨录音 多轨录音指多种乐器或人声的互相“叠加”,以便在播放任意一种音色时,同时听到其它的音色。有的录音设备具备将不同乐器录在每个“轨”上的能力。多轨录音好比将16个盒带录音机的磁带并列在一起。就成为16轨磁带(实际32轨,因为盒式磁带是立体声,有两个轨),从而具备了每轨录制不同乐器的潜力。 换言之,假如您为一个鼓手、一个贝司和一

个伴奏吉他手弹奏的曲子录音,用一台多轨录音机将每种乐器录在各自轨上。由于是一起演奏的曲子,音符要互相合拍,播放时,听起来仍好象几个乐手在一起演奏一般。如果您要在歌曲中加入一个主音吉他,既然每个乐器都录在各自音频上,就要先播放前三个轨,使吉他手在第四轨上录制主音吉他时,能与其它乐器“合拍”。这个过程就叫叠加。 按传统方式,录音师要先录制“节奏轨”,包括:鼓、贝司、伴奏吉他、键盘以及一个将被替换的主音人声,所有都录在一起。下一步,录音师开始做叠加,加入其它节奏,主声部,背景人声,所有其它乐器,最后录制主音人声。而现代录音方式通常是一次制作一个轨,按排序的乐器、鼓的循环,或者人声开始录音。 关键点是最终你的乐器必须被同时录制在一起。一旦完成后,混音过程才能开始。 录音基础/多轨缩混 缩混的目的是将你所录制的轨道缩到两个轨道(立体声)上或一个轨(单声)上。这样就可以在传统的播放系统如卡带或CD播放机上

数字音频基础知识

第一章数字音频基础知识 主要内容 ?声音基础知识 ?认识数字音频 ?数字音频专业知识 第1节声音基础知识 1.1 声音的产生 ?声音是由振动产生的。物体振动停止,发声也停止。当振动波传到人耳时,人便听到了声音。 ?人能听到的声音,包括语音、音乐和其它声音(环境声、音效声、自然声等),可以分为乐音和噪音。 ?乐音是由规则的振动产生的,只包含有限的某些特定频率,具有确定的波形。 ?噪音是由不规则的振动产生的,它包含有一定范围内的各种音频的声振动,没有确定的波形。 1.2 声音的传播 ?声音靠介质传播,真空不能传声。 ?介质:能够传播声音的物质。 ?声音在所有介质中都以声波形式传播。 ?音速 ?声音在每秒内传播的距离叫音速。 ?声音在固体、液体中比在气体中传播得快。 ?15oC 时空气中的声速为340m/s 。 1.3 声音的感知 ?外界传来的声音引起鼓膜振动经听小骨及其他组织传给听觉神经,听觉神经再把信号传给大脑,这样人就听到了声音。 ?双耳效应的应用:立体声 ?人耳能感受到(听觉)的频率范围约为20Hz~ 20kHz,称此频率范围内的声音为可听声(audible sound)或音频(audio),频率<20Hz声音为次声,频率>20kHz声音为超声。 ?人的发音器官发出的声音(人声)的频率大约是80Hz~3400Hz。人说话的声音(话音voice / 语音speech)的频率通常为300Hz~3000 Hz(带宽约3kHz)。 ?传统乐器的发声范围为16Hz (C2)~7kHz(a5),如钢琴的为27.5Hz (A2)~4186Hz(c5)。 1.4 声音的三要素 ?声音具有三个要素: 音调、响度(音量/音强)和音色 ?人们就是根据声音的三要素来区分声音。 音调(pitch ) ?音调:声音的高低(高音、低音),由―频率‖(frequency)决定,频率越高音调越高。 ?声音的频率是指每秒中声音信号变化的次数,用Hz 表示。例如,20Hz 表示声音信号在1 秒钟内周期性地变化20 次。?高音:音色强劲有力,富于英雄气概。擅于表现强烈的感情。 ?低音:音色深沉浑厚,擅于表现庄严雄伟和苍劲沉着的感情。 响度(loudness ) ?响度:又称音量、音强,指人主观上感觉声音的大小,由―振幅‖(amplitude)和人离声源的距离决定,振幅越大响度越大,人和声源的距离越小,响度越大。(单位:分贝dB) 音色(music quality) ?音色:又称音品,由发声物体本身材料、结构决定。 ?每个人讲话的声音以及钢琴、提琴、笛子等各种乐器所发出的不同声音,都是由音色不同造成的。 1.5 声道

音视频技术基本知识一

https://www.360docs.net/doc/4d161120.html, 音视频技术基本知识一 网易视频云是网易倾力打造的一款基于云计算的分布式多媒体处理集群和专业音视频技术,为客户提供稳定流畅、低时延、高并发的视频直播、录制、存储、转码及点播等音视频的PaaS服务。在线教育、远程医疗、娱乐秀场、在线金融等各行业及企业用户只需经过简单的开发即可打造在线音视频平台。现在,网易视频云总结网络上的知识,与大家分享一下音视频技术基本知识。 与画质、音质等有关的术语 这些术语术语包括帧大小、帧速率、比特率及采样率等。 1、帧 一般来说,帧是影像常用的最小单位,简单的说就是组成一段视频的一幅幅图片。电影的播放连续的帧播放所产生的,现在大多数视频也类似,下面说说帧速率和帧大小。 帧速率,有的转换器也叫帧率,或者是每秒帧数一类的,这可以理解为每一秒的播放中有多少张图片,一般来说,我们的眼睛在看到东西时,那些东西的影像会在眼睛中停留大约十六分之一秒,也就是视频中只要每秒超过15帧,人眼就会认为画面是连续不断的,事实上早期的手绘动画就是每秒播放15张以上的图片做出来的。但这只是一般情况,当视频中有较快的动作时,帧速率过小,动作的画面跳跃感就会很严重,有明显的失真感。因此帧速率最好在24帧及以上,这24帧是电影的帧速率。 帧大小,有的转换器也叫画面大小或屏幕大小等,是组成视频的每一帧的大小,直观表现为转换出来的视频的分辨率的大小。一般来说,软件都会预置几个分辨率,一般为320×240、480×320、640×360、800×480、960×540、1280×720及1920×1080等,当然很多转换器提供自定义选项,这里,不得改变视频长宽比例。一般根据所需要想要在什么设备上播放来选择分辨率,如果是转换到普通手机、PSP等设备上,视频分辨率选择与设备分辨率相同,否则某些设备可能会播放不流畅,设备分辨率的大小一般都可以在中关村在线上查到。 2、比特率 比特率,又叫码率或数据速率,是指每秒传输的视频数据量的大小,音视频中的比特率,是指由模拟信号转换为数字信号的采样率;采样率越高,还原后的音质和画质就越好;音视频文件的体积就越大,对系统配置的要求也越高。 在音频中,1M以上比特率的音乐一般只能在正版CD中找到,500K到1M的是以APE、FLAC等为扩展名的无损压缩的音频格式,一般的MP3是在96K到320K之间。目前,对大多数人而言,对一般人而言192K就足够了。 在视频中,蓝光高清的比特率一般在40M以上,DVD一般在5M以上,VCD一般是在1M 以上。(这些均是指正版原盘,即未经视频压缩的版本)。常见的视频文件中,1080P的码率一般在2到5M之间,720P的一般在1到3M,其他分辨率的多在一M一下。 视频文件的比特率与帧大小、帧速率直接相关,一般帧越大、速率越高,比特率也就越大。当然某些转换器也可以强制调低比特率,但这样一般都会导致画面失真,如产生色块、色位不正、出现锯齿等情况。

音视频基础知识考核题

网络音视频基础知识考核题 1.以下哪一项不是视频文件封装格式?C a)AVI b)MP4 c)AVC d)MPEG-TS 2.以下哪一项不是音视频编码格式?B a)Window Media Video Codec 9 b)MPEG-PS c)HE-AAC d)MPEG-2 3.以下哪一项为Flash Media Encoder录制文件格式?D a)MP4 b)M4V c)MOV d)F4V 4.Adobe Flash Player不支持以下哪种音视频格式?D a)MP4:AVC+AAC b)3GP:AVC+AMR-NB c)FLV:H263+MP3 d)MOV: AVC+AAC 5.Apple手持终端(iphone,ipod,ipad)本地播放器支持以下哪种视频编码?B a)H.264+MP3 b)H.264+AAC c)OnVP6+MP3 d)H.263+AAC 6.以下哪一项不属于H.264视频编码标准框架(Profile)?D a)Baseline Profile b)Main Profile c)High Profile d)MEI Profile 7.视频关键帧又称?A a)I Frame b) B Frame c)P Frame d) A Frame 8.如果设置视频编码帧速率为29.97fps,需要每秒2个关键帧,则每隔多少帧需设置一个 关键帧?A a)10 b)15 c)20 d)30 9.以下哪套编码设置是Flash Media Encoder不支持的?D a)H.264+MP3,350K+32K,15fps,22050,320x240 b)H.264+MP3,350K+32K,15fps,22050,320x240 H.264+MP3,500K+64K,25fps,44100,480x320 c)H.264+MP3,500K+64K,25fps,44100,480x320 H.264+MP3,800K+64K,25fps,44100,640x480 d)ONVP6+MP3,300K+32K,12fps,22050,480x320 ONVP6+MP3,400K+32K,12fps,22050,320x240 ONVP6+MP3,500K+32K,12fps,22050,240x180

录音技术基础知识

录音技术基础知识基本录音/多轨录音 无论是盒式磁带录音机、数码多轨录音机、硬盘录音机,还是其它录音媒体,其录音过程大致相同,目的都是将声音获取到缩混带上。 做此工作,录音工程师采用两个步骤: 1、多轨录音——各种乐器和人声的录音与叠加录音的过程,每种录音都有各 自的“音轨”。 2、多轨缩混——将这些多轨内容同步录在一组立体声轨上(“母带录音”),可 以用某种播放系统如CD播放机或磁带卡座等进行再制作。 录音基础/多轨录音 多轨录音指多种乐器或人声的互相“叠加”,以便在播放任意一种音色时,同时听到其它的音色。有的录音设备具备将不同乐器录在每个“轨”上的能力。多轨录音好比将16个盒带录音机的磁带并列在一起。就成为16轨磁带(实际32轨,因为盒式磁带是立体声,有两个轨),从而具备了每轨录制不同乐器的潜力。 换言之,假如您为一个鼓手、一个贝司和一个伴奏吉他手弹奏的曲子录音,用一台多轨录音机将每种乐器录在各自轨上。由于是一起演奏的曲子,音符要互相合拍,播放时,听起来仍好象几个乐手在一起演奏一般。如果您要在歌曲中加入一个主音吉他,既然每个乐器都录在各自音频上,就要先播放前三个轨,使吉他手在第四轨上录制主音吉他时,能与其它乐器“合拍”。这个过程就叫叠加。 按传统方式,录音师要先录制“节奏轨”,包括:鼓、贝司、伴奏吉他、键盘以及一个将被替换的主音人声,所有都录在一起。下一步,录音师开始做叠加,加入其它节奏,主声部,背景人声,所有其它乐器,最后录制主音人声。而现代

录音方式通常是一次制作一个轨,按排序的乐器、鼓的循环,或者人声开始录音。 关键点是最终你的乐器必须被同时录制在一起。一旦完成后,混音过程才能开始。 录音基础/多轨缩混 缩混的目的是将你所录制的轨道缩到两个轨道(立体声)上或一个轨(单声)上。这样就可以在传统的播放系统如卡带或CD播放机上今昔播放了。 按传统方法,多轨录音机连在多通道的调音台上,这样每一个轨在调音面板上都可以被单独进行处理了。换句话说,多轨录音机的每一个输出都连接到调音台的每一个输入通道上,从那里再进行合并,成为单一的立体声输出。这个立体声的输出可以连接到母带处理机上录制立体声信号。 在合并许多通道到两个通道时,调音台还处理其它一些重要工作,如: -调节乐器的频率内容,一般称为EQ。 -给乐器增加效果,如混响,回声或合唱。 -调节每一轨的音量,保证不会有单独的乐器音量太过于大或者小。 如今,多轨录音机,多通道调调音台,均衡和效果器上的所有功能都可以集中在一个装置上。而且还可以用光盘刻录机、数码录音机或硬盘作为母带处理机。当然重要的是您的曲子中的所有的乐器都被录音、加工、缩混最后成为一种媒介而被大众听到。 一般连接端子 输入端子 在开始录音之前,你需要将乐器或者是话筒连接到录音机或调音台的输入部分。可能你会注意到有一些不同的连接类型,如:RCA型(在家用的立体声设备上也可

音频基础知识

音频,英文是AUDIO,也许你会在录像机或VCD的背板上看到过AUDIO输出或输入口。这样我们可以很通俗地解释音频,只要是我们听得见的声音,就可以作为音频信号进行传输。有关音频的物理属性由于过于专业,请大家参考其他资料。自然界中的声音非常复杂,波形极其复杂,通常我们采用的是脉冲代码调制编码,即PCM编码。PCM通过采样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。 一、音频基本概念 1、什么是采样率和采样大小(位/bit)。 声音其实是一种能量波,因此也有频率和振幅的特征,频率对应于时间轴线,振幅对应于电平轴线。波是无限光滑的,弦线可以看成由无数点组成,由于存储空间是相对有限的,数字编码过程中,必须对弦线的点进行采样。采样的过程就是抽取某点的频率值,很显然,在一秒中内抽取的点越多,获取得频率信息更丰富,为了复原波形,一次振动中,必须有2个点的采样,人耳能够感觉到的最高频率为20kHz,因此要满足人耳的听觉要求,则需要至少每秒进行40k次采样,用40kHz表达,这个40kHz就是采样率。我们常见的CD,采样率为44.1kHz。光有频率信息是不够的,我们还必须获得该频率的能量值并量化,用于表示信号强度。量化电平数为2的整数次幂,我们常见的CD位16bit的采样大小,即2的16次方。采样大小相对采样率更难理解,因为要显得抽象点,举个简单例子:假设对一个波进行8次采样,采样点分别对应的能量值分别为A1-A8,但我们只使用2bit的采样大小,结果我们只能保留A1-A8中4个点的值而舍弃另外4个。如果我们进行3bit的采样大小,则刚好记录下8个点的所有信息。采样率和采样大小的值越大,记录的波形更接近原始信号。 2、有损和无损 根据采样率和采样大小可以得知,相对自然界的信号,音频编码最多只能做到无限接近,至少目前的技术只能这样了,相对自然界的信号,任何数字音频编码方案都是有损的,因为无法完全还原。在计算机应用中,能够达到最高保真水平的就是PCM编码,被广泛用于素材保存及音乐欣赏,CD、DVD以及我们常见的WAV文件中均有应用。因此,PCM约定俗成了无损编码,因为PCM代表了数字音频中最佳的保真水准,并不意味着PCM就能够确保信号绝对保真,PCM也只能做到最大程度的无限接近。我们而习惯性的把MP3列入有损音频编码范畴,是相对PCM编码的。强调编码的相对性的有损和无损,是为了告诉大家,要做到真正的无损是困难的,就像用数字去表达圆周率,不管精度多高,也只是无限接近,而不是真正等于圆周率的值。 3、为什么要使用音频压缩技术 要算一个PCM音频流的码率是一件很轻松的事情,采样率值×采样大小值×声道数bps。一个采样率为44.1KHz,采样大小为16bit,双声道的PCM编码的WAV文件,它的数据速率则为44.1K×16×2 =1411.2 Kbps。我们常说128K的MP3,对应的WAV的参数,就是这个1411.2 Kbps,这个参数也被称为数据带宽,它和ADSL中的带宽是一个概念。将码率除以8,就可以得到这个WAV的数据速率,即176.4KB/s。这表示存储一秒钟采样率为44.1KHz,采样大小为16bit,双声道的PCM编码的音频信号,需要176.4KB的空间,1分钟则约为10.34M,这对大部分用户是不可接受的,尤其是喜欢在电脑上听音乐的朋友,要降低磁盘占用,只有

录音技术基础知识

录音技术基础知识 基本录音/多轨录音 无论是盒式磁带录音机、数码多轨录音机、硬盘录音机,还是其它录音媒体,其录音过程大致相同,目的都是将声音获取到缩混带上。 做此工作,录音工程师采用两个步骤: 1、多轨录音——各种乐器和人声的录音与叠加录音的过程,每种录音都有各自的“音轨”。 2、多轨缩混——将这些多轨内容同步录在一组立体声轨上(“母带录音”),可以用某种播 放系统如CD播放机或磁带卡座等进行再制作。 录音基础/多轨录音 多轨录音指多种乐器或人声的互相“叠加”,以便在播放任意一种音色时,同时听到其它的音色。有的录音设备具备将不同乐器录在每个“轨”上的能力。多轨录音好比将16个盒带录音机的磁带并列在一起。就成为16轨磁带(实际32轨,因为盒式磁带是立体声,有两个轨),从而具备了每轨录制不同乐器的潜力。 换言之,假如您为一个鼓手、一个贝司和一个伴奏吉他手弹奏的曲子录音,用一台多轨录音机将每种乐器录在各自轨上。由于是一起演奏的曲子,音符要互相合拍,播放时,听起来仍好象几个乐手在一起演奏一般。如果您要在歌曲中加入一个主音吉他,既然每个乐器都录在各自音频上,就要先播放前三个轨,使吉他手在第四轨上录制主音吉他时,能与其它乐器“合拍”。这个过程就叫叠加。 按传统方式,录音师要先录制“节奏轨”,包括:鼓、贝司、伴奏吉他、键盘以及一个将被替换的主音人声,所有都录在一起。下一步,录音师开始做叠加,加入其它节奏,主声部,背景人声,所有其它乐器,最后录制主音人声。而现代录音方式通常是一次制作一个轨,按排序的乐器、鼓的循环,或者人声开始录音。 关键点是最终你的乐器必须被同时录制在一起。一旦完成后,混音过程才能开始。 录音基础/多轨缩混 缩混的目的是将你所录制的轨道缩到两个轨道(立体声)上或一个轨(单声)上。这样就可以在传统的播放系统如卡带或CD播放机上今昔播放了。 按传统方法,多轨录音机连在多通道的调音台上,这样每一个轨在调音面板上都可以被单独进行处理了。换句话说,多轨录音机的每一个输出都连接到调音台的每一个输入通道上,从那里再进行合并,成为单一的立体声输出。这个立体声的输出可以连接到母带处理机上录制立体声信号。 在合并许多通道到两个通道时,调音台还处理其它一些重要工作,如: -调节乐器的频率内容,一般称为EQ。 -给乐器增加效果,如混响,回声或合唱。 -调节每一轨的音量,保证不会有单独的乐器音量太过于大或者小。 如今,多轨录音机,多通道调调音台,均衡和效果器上的所有功能都可以集中在一个装置上。而且还可以用光盘刻录机、数码录音机或硬盘作为母带处理机。当然重要的是您的曲子中的所有的乐器都被录音、加工、缩混最后成为一种媒介而被大众听到。 一般连接端子 输入端子 在开始录音之前,你需要将乐器或者是话筒连接到录音机或调音台的输入部分。可能你会注

音频基本知识

音频基本知识 第一部分 模拟声音-数字声音原理 第二部分 音频压缩编码 第三部分 和弦铃声格式 第四部分 单声道、立体声和环绕声 第五部分 3D环绕声技术 第六部分数字音频格式和数字音频接口 第一部分 模拟声音-数字声音原理 一、模拟声音数字化原理 声音是通过空气传播的一种连续的波,叫声波。声音的强弱体现在声波压力的大小上,音调的高低体现在声音的频率上。声音用电表示时,声音信号在时间和幅度上都是连续的模拟信号。 图1 模拟声音数字化的过程 声音进入计算机的第一步就是数字化,数字化实际上就是采样和量化。连续时间的离散

化通过采样来实现。 声音数字化需要回答两个问题:①每秒钟需要采集多少个声音样本,也就是采样频率(f s)是多少,②每个声音样本的位数(bit per sample,bps)应该是多少,也就是量化精度。 ?采样频率 采样频率的高低是根据奈奎斯特理论(Nyquist theory)和声音信号本身的最高频率决定的。奈奎斯特理论指出,采样频率不应低于声音信号最高频率的两倍,这样才能把以数字表达的声音还原成原来的声音。采样的过程就是抽取某点的频率值,很显然,在一秒中内抽取的点越多,获取得频率信息更丰富,为了复原波形,一次振动中,必须有2个点的采样,人耳能够感觉到的最高频率为20kHz,因此要满足人耳的听觉要求,则需要至少每秒进行40k 次采样,用40kHz表达,这个40kHz就是采样率。我们常见的CD,采样率为44.1kHz。电话话音的信号频率约为3.4 kHz,采样频率就选为8 kHz。 ?量化精度 光有频率信息是不够的,我们还必须纪录声音的幅度。量化位数越高,能表示的幅度的等级数越多。例如,每个声音样本用3bit表示,测得的声音样本值是在0~8的范围里。我们常见的CD位16bit的采样精度,即音量等级有2的16次方个。样本位数的大小影响到声音的质量,位数越多,声音的质量越高,而需要的存储空间也越多。 ?压缩编码 经过采样、量化得到的PCM数据就是数字音频信号了,可直接在计算机中传输和存储。但是这些数据的体积太庞大了!为了便于存储和传输,就需要进一步压缩,就出现了各种压缩算法,将PCM转换为MP3,AAC,WMA等格式。 常见的用于语音(Voice)的编码有:EVRC (Enhanced Variable Rate Coder) 增强型可变速率编码,AMR、ADPCM、G.723.1、G.729等。常见的用于音频(Audio)的编码有:MP3、AAC、AAC+、WMA等 二、问题 1、为什么要使用音频压缩技术? 我们可以拿一个未压缩的CD文件(PCM音频流)和一个MP3文件作一下对比: PCM音频:一个采样率为44.1KHz,采样大小为16bit,双声道的PCM编码CD文件,它的数据速率则为 44.1K×16×2 =1411.2 Kbps,这个参数也被称为数据带宽。将码率除以8 bit,就可以得到这个CD的数据速率,即176.4KB/s。这表示存储一秒钟PCM编码的音频信号,需要176.4KB的空间。 MP3音频:将这个WAV文件压缩成普通的MP3,44.1KHz,128Kbps的码率,它的数据速率为128Kbps/8=16KB/s。如下表所示: 比特率 存1秒音频数据所占空间 CD(线性PCM) 1411.2 Kbps 176.4KB MP3 128Kbps 16KB AAC 96Kbps 12KB mp3PRO 64Kbps 8KB 表1 相同音质下各种音乐大小对比 2、频率与采样率的关系 采样率表示了每秒对原始信号采样的次数,我们常见到的音频文件采样率多为44.1KHz,这意味着什么呢?假设我们有2段正弦波信号,分别为20Hz和20KHz,长度均为一秒钟,以对应我们能听到的最低频和最高频,分别对这两段信号进行40KHz的采样,我们可以得到一个什么样的结果呢?结果是:20Hz的信号每次振动被采样了40K/20=2000次,而20K的信号每次振动只有2次采样。显然,在相同的采样率下,记录低频的信息远比高频

(完整版)音频基础知识及编码原理

一、基本概念 1 比特率:表示经过编码(压缩)后的音频数据每秒钟需要用多少个比特来表示,单位常为kbps。 2 响度和强度:声音的主观属性响度表示的是一个声音听来有多响的程度。响度主要随声音的强度而变化,但也受频率的影响。总的说,中频纯音听来比低频和高频纯音响一些。 3 采样和采样率:采样是把连续的时间信号,变成离散的数字信号。采样率是指每秒钟采集多少个样本。 Nyquist采样定律:采样率大于或等于连续信号最高频率分量的2倍时,采样信号可以用来完美重构原始连续信号。 二、常见音频格式 1. WAV格式,是微软公司开发的一种声音文件格式,也叫波形声音文件,是最早的数字音频格式,被Windows平台及其应用程序广泛支持,压缩率低。 2. MIDI是Musical Instrument Digital Interface的缩写,又称作乐器数字接口,是数字音乐/电子合成乐器的统一国际标准。它定义了计算机音乐程序、数字合成器及其它电子设备交换音乐信号的方式,规定了不同厂家的电子乐器与计算机连接的电缆和硬件及设备间数据传

输的协议,可以模拟多种乐器的声音。MIDI文件就是MIDI格式的文件,在MIDI文件中存储的是一些指令。把这些指令发送给声卡,由声卡按照指令将声音合成出来。 3. MP3全称是MPEG-1 Audio Layer 3,它在1992年合并至MPEG规范中。MP3能够以高音质、低采样率对数字音频文件进行压缩。应用最普遍。 4. MP3Pro是由瑞典Coding科技公司开发的,其中包含了两大技术:一是来自于Coding 科技公司所特有的解码技术,二是由MP3的专利持有者法国汤姆森多媒体公司和德国Fraunhofer集成电路协会共同研究的一项译码技术。MP3Pro可以在基本不改变文件大小的情况下改善原先的MP3音乐音质。它能够在用较低的比特率压缩音频文件的情况下,最大程度地保持压缩前的音质。 5. MP3Pro是由瑞典Coding科技公司开发的,其中包含了两大技术:一是来自于Coding 科技公司所特有的解码技术,二是由MP3的专利持有者法国汤姆森多媒体公司和德国Fraunhofer集成电路协会共同研究的一项译码技术。MP3Pro可以在基本不改变文件大小的情况下改善原先的MP3音乐音质。它能够在用较低的比特率压缩音频文件的情况下,最大程度地保持压缩前的音质。 6. WMA (Windows Media Audio)是微软在互联网音频、视频领域的力作。WMA格式是以减少数据流量但保持音质的方法来达到更高的压缩率目的,其压缩率一般可以达到1:18。此外,WMA还可以通过DRM(Digital Rights Management)保护版权。 7. RealAudio是由Real Networks公司推出的一种文件格式,最大的特点就是可以实时传输音频信息,尤其是在网速较慢的情况下,仍然可以较为流畅地传送数据,因此RealAudio 主要适用于网络上的在线播放。现在的RealAudio文件格式主要有RA(RealAudio)、RM (RealMedia,RealAudio G2)、RMX(RealAudio Secured)等三种,这些文件的共同性在于随着网络带宽的不同而改变声音的质量,在保证大多数人听到流畅声音的前提下,令带宽较宽敞的听众获得较好的音质。 8. Audible拥有四种不同的格式:Audible1、2、3、4。https://www.360docs.net/doc/4d161120.html,网站主要是在互联网上贩卖有声书籍,并对它们所销售商品、文件通过四种https://www.360docs.net/doc/4d161120.html, 专用音频格式中的一种提供保护。每一种格式主要考虑音频源以及所使用的收听的设备。格式1、2和3采用不同级别的语音压缩,而格式4采用更低的采样率和MP3相同的解码方式,所得到语音吐辞更清楚,而且可以更有效地从网上进行下载。Audible 所采用的是他们自己的桌面播放工具,这就是Audible Manager,使用这种播放器就可以播放存放在PC或者是传输到便携式播放器上的Audible格式文件

日常生活中的音视频功能端口基础知识

Composite Video Output(模拟信号) 复合视频端子也叫AV端子或者Video端子,是声、画分离的视频端子,一般由三个独立的RCA插头(又叫梅花接口RCA端子)组成的,其中的V接口连接混合视频信号,为黄色插口;L接口连接左声道声音信号,为白色插口;R接口连接右声道声音信号,为红色插口。 S-Video Output(不适用于高清视频,其信号最高分辨率有限) S端子也是非常常见的端子,其全称是Separate Video,也称为SUPER VIDEO。S端子实际上是一种五芯接口,由两路视亮度信号、两路视频色度信号和一路公共屏蔽地线共五条芯线组成 HDMI Output 高清晰度多媒体接口(英文:High Definition Multimedia Interface,HDMI)是一种数字化视频/音频接口技术,是适合影像传输的专用型数字化接口,其可同时传送音频和影音信号,最高数据传输速度为5Gbps。同时无需在信号传送前进行数/模或者模/数转换。 DVI DVI的英文全名为Digital Visual Interface,中文称为“数字视频接口”。是一种视频接口标准,设计的目标是通过数字化的传送来强化个人电脑显示器的画面品质。

RJ45 / Ethernet RJ45 型网线插头又称水晶头,共有八芯做成,广泛应用于局域网和ADSL 宽带上网用户的网络设备间网线(称作五类线或双绞线)的连接。10 100base tx RJ45接口是常用的以太网接口,支持10兆和100兆自适应的网络连接速度,常见的RJ45接口有两类:用于以太网网卡、路由器以太网接口等的DTE类型,还有用于交换机等的DCE类型。 常见音视频格式: MP3全称是动态影像专家压缩标准音频层面3(Moving Picture Experts Group Audio Layer III)。是当今较流行的一种数字音频编码和有损压缩格式,它设计用来大幅度地降低音频数据量WMA(Windows Media Audio)是微软公司推出的与MP3格式齐名的一种新的音频格式。由于WMA在压缩比和音质方面都超过了MP3 Dolby Digital杜比数字技术(英文名称:Dolby Digital),是杜比实验室发布的新一代家庭影院环绕声系统。其数字化的伴音中包含左前置、中置、右前置、左环绕、右环绕5个声道的信号。它是DVD-Video影碟的指定音频标准。广泛应用于卫星电视机顶盒、数字有线等领域。Dolby Digital Plus 杜比数字+技术是专为所有的高清节目与媒体所设计的下一代音频技术。杜比数字+技术建立在杜比数字技术的基础之上,杜比数字技术是全世界DVD和高清广播节目的多声道音频标准。 Dolby TrueHD 杜比TrueHD是专为高清光盘媒体所开发的下一代无损压缩技术。特点100%无损的编码技术。码率高达18 Mbps。支持多达八个分离式24比特/96 kHz全频带声道。 碟片类型种类: CD 英语:Compact Disc),是一种用以储存数字资料的光学碟片。容量:700MB CD-R Compact Disk-Recordable, CD-R是一种一次写入、永久读的标准。其工作原理是通过激光照射到盘片上的“凹陷”和“平地”其反射光的变化来读取的;CD-ROM的“凹陷”是印制的,而CD-R是由刻录机烧制而成。 CD-RW 可擦写光盘。盘片由于采用了相变技术,它的激光反射率比一般的CD盘片要低很多。D-RW驱动器的激光头有两种波长设置,分别为写(P-Write)和擦除(P-Eraze),刻录时(500~700摄氏度)使该物质的分子自由运动,多晶结构被改变,呈现一种非晶状(随即)状态(反射率只有5%)。而擦除数据就利用(200℃)温度让刻录层物质恢复到多晶结构(即CD-RW 光盘初始状态)。 DVD 数字多功能光盘(英文:Digital Versatile Disc),简称DVD,是一种光盘存储器,通常用来播放标准电视机清晰度的电影,高质量的音乐与作大容量存储数据用途。 DVD-R 采用有机染料的方法制成,容量:4.7GB。 DVD-RW 可重写超过1,000次。容量都是4.7GB

音频基础知识

一般认为20Hz-20kHz是人耳听觉频带,称为“声频”。这个频段的声音称为“可闻声”,高于20kHz的称为“超声”,低于20Hz的称为“次声“。(《广播播控与电声技术》p3) 所谓声音的质量,是指经传输、处理后音频信号的保真度。目前,业界公认的声音质量标准分为4级,即数字激光唱盘CD-DA质量,其信号带宽为10Hz~20kHz;调频广播FM质量,其信号带宽为20Hz~15kHz;调幅广播AM质量,其信号带宽为50Hz~7kHz;电话的话音质量,其信号带宽为200Hz~3400Hz。可见,数字激光唱盘的声音质量最高,电话的话音质量最低。除了频率范围外,人们往往还用其它方法和指标来进一步描述不同用途的音质标准。由于电子平衡与变压器平衡的区别,所以二者的接线方法是不一样的,应引起注意。 声学的基本概念音频频率范围一般可以分为四个频段,即低频段(30 ̄150Hz);中低频段(30 ̄150Hz);中低频(150 ̄500Hz);中高频段(500 ̄5000Hz);高频段(5000 ̄20000Hz)。30 ̄150Hz频段:能够表现音乐的低频成分,使欣赏者感受到强劲有力的动感。150 ̄500Hz频段:能够表现单个打击乐器在音乐中的表现力,是低频中表达力度的部分。500 ̄5000Hz频段:主要表达演唱者或语言的清淅度及弦乐的表现力。5000 ̄20000Hz频段:主要表达音乐的明亮度,但过多会使声音发破。音频频率范围一般可以分为四个频段,即低频段(30 ̄150Hz);中低频段(30 ̄150Hz);中低频(150 ̄500Hz);中高频段(500 ̄5000Hz);高频段(5000 ̄20000Hz)。30 ̄150Hz频段:能够表现音乐的低频成分,使欣赏者感受到强劲有力的动感。150 ̄500Hz频段:能够表现单个打击乐器在音乐中的表现力,是低频中表达力度的部分。500 ̄5000Hz频段:主要表达演唱者或语言的清淅度及弦乐的表现力。5000 ̄20000Hz频段:主要表达音乐的明亮度,但过多会使声音发破。所谓声音的质量,是指经传输、处理后音频信号的保真度。目前,业界公认的声音质量标准分为4级,即数字激光唱盘CD-DA质量,其信号带宽为10Hz~20kHz;调频广播FM质量,其信号带宽为20Hz~15kHz;调幅广播AM质量,其信号带宽为50Hz~7kHz;电话的话音质量,其信号带宽为200Hz~3400Hz。可见,数字激光唱盘的声音质量最高,电话的话音质量最低。除了频率范围外,人们往往还用其它方法和指标来进一步描述不同用途的音质标准。音质评价方法评价再现声音的质量有主观评价和客观评价两种方法。例如: 1.语音音质评定语音编码质量的方法为主观评定和客观评定。目前常用的是主观评定,即以主观打分(MOS)来度量,它分为以下五级:5(优),不察觉失真;4(良),刚察觉失真,但不讨厌;3(中),察觉失真,稍微讨厌;2(差),讨厌,但不令人反感;

专业音频中的十个知识点

专业音频中的十个知识点 1.如果音乐家们在舞台上能够听到他们所需要的声音,那他们会感觉非常舒适,在舞台上的表现往往也会更好。 当然,那些经验丰富的监听技术人员还有录音技术人员肯定是知道这一点的。 但是对那些经验不足的人来说,了解这一点是非常重要的。这并不是一个关于需要使用多大的功率的问题,也不是一个关于需要使用什么样的楔形返听音箱的问题。这其实是一个关于心理学的问题。 而且我认为,如果您了解了舞台监听的技术,并且知道如何取悦舞台上的音乐家们,那么您就已经达到了成为一名优秀的混音工程师90%的条件。 当然,最后的那10%可能要靠天赋,运气等等其他因素,但是如果没有之前的那90%的基础,无论您有多好的天赋和运气都没有用。 2.在海拔高度为海平面高度,温度为68华氏度,相对湿度为4%的条件下,声音的传播速度是每秒1,130英尺。 这是非常重要的信息,因为如果您对声音传播的方式有着足够的了解,那么在工作中,您会对麦克风的架设,延迟塔的设置,以及平衡前后延迟这类问题拥有更深入的了解。不仅如此,您还应该知道,声音的传播速度是会随着空气的温度,湿度和海拔高度的变化而变化。(如果您对此还不了解,那么请尽快学习一下相关的知识。)

3.反平方定律。 如果距离声源的距离每增加一倍,那么声功率就会减少为原来的四分之一,我想这一点很多人都是知道的。这一定律几乎可以适用于所有的地方,无论是麦克风还是扬声器阵列。了解这一定律,对于我们确定功率放大器所需的功率十分重要。 例如,如果您通常所使用的扬声器阵列所能覆盖的观众席区域是从20英尺到60英尺,而在某一个演出当中,观众席的区域是在40到100英尺之间,那么您需要使用多大的功率才能在观众席内维持相同的声功率?答案是:大约四倍的功率! 反平 方定律,如上图所示 4.人类听觉系统的等响度曲线(等响曲线)。 早在20世纪30年代,Harvey Fletcher和他在贝尔实验室领导的团队就通过了一系列试验,获得了如下这张等响曲线图。从图中我们可以看出人类的耳朵对于中高频率信号最为敏感,而对于频率非常低和频率非常高的声音信号,最不敏感。 换句话说,如果我们想让100 Hz的音调与3.5 kHz的音调听起来一样大,100 Hz时的声音必须比3.5 kHz时的声音大上15 dB!(这里我们假设3.5 kHz的音调为85 dB SPL)

现代录音基础知识

现代录音基础知识(上) 快速录音基础知识入门连载(一) 录音基础/多轨录音 多轨录音指多种乐器或人声的互相“叠加”,多轨录音好比将16个盒带录音机的磁带并列在一起。就成为16轨磁带(实际32轨,因为盒式磁带是立体声,有两个轨),从而具备了每轨录制不同乐器的潜力。 什么是叠加? 假如您为一个鼓手、一个贝司和一个伴奏吉他手弹奏的曲子录音,用一台多轨录音机将每种乐器录在各自轨上。由于是一起演奏的曲子,音符要互相合拍,播放时,听起来仍好象几个乐手在一起演奏一般。如果您要在歌曲中加入一个主音吉他,既然每个乐器都录在各自音频上,就要先播放前三个轨,使吉他手在第四轨上录制主音吉他时,能与其它乐器“合拍”。这个过程就叫叠加。传统录音方式 录音师要先录制“节奏轨”,包括:鼓、贝司、伴奏吉他、键盘以及一个将被替换的主音人声,所有都录在一起。下一步,录音师开始做叠加,加入其它节奏,主声部,背景人声,所有其它乐器,最后录制主音人声。而现代录音方式通常是一次制作一个轨,按排序的乐器、鼓的循环,或者人声开始录音。关键点是最终你的乐器必须被同时录制在一起。一旦完成后,混音过程才能开始。 录音基础/多轨缩混 缩混的目的是将你所录制的轨道缩到两个轨道(立体声)上或一个轨(单声)上。这样就可以在传统的播放系统如卡带或CD播放机上今昔播放了。 传统方法,多轨录音机连在多通道的调音台上,这样每一个轨在调音面板上都可以被单独进行处理了。换句话说,多轨录音机的每一个输出都连接到调音台的每一个输入通道上,从那里再进行合并,成为单一的立体声输出。这个立体声的输出可以连接到母带处理机上录制立体声信号。 在合并许多通道到两个通道时,调音台还处理其它一些重要工作,如: -调节乐器的频率内容,一般称为EQ。 -给乐器增加效果,如混响,回声或合唱。 -调节每一轨的音量,保证不会有单独的乐器音量太过于大或者小。 这些处理过程将在后文的详细介绍中解释。

录音技术基础知识

录音技术基础知识 Prepared on 22 November 2020

录音技术基础知识基本录音/多轨录音 无论是盒式磁带录音机、数码多轨录音机、硬盘录音机,还是其它录音媒体,其录音过程大致相同,目的都是将声音获取到缩混带上。 做此工作,录音工程师采用两个步骤: 1、多轨录音——各种乐器和人声的录音与叠加录音的过程,每种录音都有各自的“音 轨”。 2、多轨缩混——将这些多轨内容同步录在一组立体声轨上(“母带录音”),可以用某种 播放系统如CD播放机或磁带卡座等进行再制作。 录音基础/多轨录音 多轨录音指多种乐器或人声的互相“叠加”,以便在播放任意一种音色时,同时听到其它的音色。有的录音设备具备将不同乐器录在每个“轨”上的能力。多轨录音好比将16个盒带录音机的磁带并列在一起。就成为16轨磁带(实际32轨,因为盒式磁带是立体声,有两个轨),从而具备了每轨录制不同乐器的潜力。 换言之,假如您为一个鼓手、一个贝司和一个伴奏吉他手弹奏的曲子录音,用一台多轨录音机将每种乐器录在各自轨上。由于是一起演奏的曲子,音符要互相合拍,播放时,听起来仍好象几个乐手在一起演奏一般。如果您要在歌曲中加入一个主音吉他,既然每个乐器都录在各自音频上,就要先播放前三个轨,使吉他手在第四轨上录制主音吉他时,能与其它乐器“合拍”。这个过程就叫叠加。 按传统方式,录音师要先录制“节奏轨”,包括:鼓、贝司、伴奏吉他、键盘以及一个将被替换的主音人声,所有都录在一起。下一步,录音师开始做叠加,加入其它节

奏,主声部,背景人声,所有其它乐器,最后录制主音人声。而现代录音方式通常是一次制作一个轨,按排序的乐器、鼓的循环,或者人声开始录音。 关键点是最终你的乐器必须被同时录制在一起。一旦完成后,混音过程才能开始。录音基础/多轨缩混 缩混的目的是将你所录制的轨道缩到两个轨道(立体声)上或一个轨(单声)上。这样就可以在传统的播放系统如卡带或CD播放机上今昔播放了。 按传统方法,多轨录音机连在多通道的调音台上,这样每一个轨在调音面板上都可以被单独进行处理了。换句话说,多轨录音机的每一个输出都连接到调音台的每一个输入通道上,从那里再进行合并,成为单一的立体声输出。这个立体声的输出可以连接到母带处理机上录制立体声信号。 在合并许多通道到两个通道时,调音台还处理其它一些重要工作,如: -调节乐器的频率内容,一般称为EQ。 -给乐器增加效果,如混响,回声或合唱。 -调节每一轨的音量,保证不会有单独的乐器音量太过于大或者小。 如今,多轨录音机,多通道调调音台,均衡和效果器上的所有功能都可以集中在一个装置上。而且还可以用光盘刻录机、数码录音机或硬盘作为母带处理机。当然重要的是您的曲子中的所有的乐器都被录音、加工、缩混最后成为一种媒介而被大众听到。 一般连接端子 输入端子 在开始录音之前,你需要将乐器或者是话筒连接到录音机或调音台的输入部分。可能你会注意到有一些不同的连接类型,如:RCA型(在家用的立体声设备上也可以找到),XLR(一般用于话筒)和1/4inch(一般用于乐器)。

视频音频编码知识

audio。AAC(Advanced Audio Coder)区别于ac3,mp3(全称MPEG1 Layer3,可不是MPEG3的缩写哦)等等,aac是Mp4官方指定的mp4音频规格。和video一样,她也有两个profile: - LC-AAC (Low Complexity) 也被叫做MAIN @ Level 2 - HE-AAC (High Efficiency) 也被叫做AAC SBR/AAC+/aacplus 再次抛开技术性的数据,HE比LC更高级一些,允许你在相同音质下已更低的bitrate编码。 帧间压缩。 其次,时间相关性的统计分析:统计的结果表明,在间隔1~2帧的图像中,各像素只有10%以下的点,其亮度差值变化超过2%,而色度差值的变化只有1%以下。 采用的压缩方法: 分组:把几帧图像分为一组(GOP),为防止运动变化,帧数不宜取多。 1.定义帧:将每组内各帧图像定义为三种类型,即I帧、B帧和P帧; 2.预测帧:以I帧做为基础帧,以I帧预测P帧,再由I帧和P帧预测B帧; 3.数据传输:最后将I帧数据与预测的差值信息进行存储和传输。 I帧:帧内编码帧 I帧特点: 1.它是一个全帧压缩编码帧。它将全帧图像信息进行JPEG压缩编码及传输; 2.解码时仅用I帧的数据就可重构完整图像; 3.I帧描述了图像背景和运动主体的详情; 4.I帧不需要参考其他画面而生成; 5.I帧是P帧和B帧的参考帧(其质量直接影响到同组中以后各帧的质量); 6.I帧是帧组GOP的基础帧(第一帧),在一组中只有一个I帧; 7.I帧不需要考虑运动矢量;

8.I帧所占数据的信息量比较大。 P帧:前向预测编码帧。 P帧的预测与重构:P帧是以I帧为参考帧,在I帧中找出P帧“某点”的预测值和运动矢量,取预测差值和运动矢量一起传送。在接收端根据运动矢量从I帧中找出P帧“某点”的预测值并与差值相加以得到P帧“某点”样值,从而可得到完整的P帧。 P帧特点: 1.P帧是I帧后面相隔1~2帧的编码帧; 2.P帧采用运动补偿的方法传送它与前面的I或P帧的差值及运动矢量(预测误差); 3.解码时必须将I帧中的预测值与预测误差求和后才能重构完整的P帧图像; 4.P帧属于前向预测的帧间编码。它只参考前面最靠近它的I帧或P帧; 5.P帧可以是其后面P帧的参考帧,也可以是其前后的B帧的参考帧; 6.由于P帧是参考帧,它可能造成解码错误的扩散; 7.由于是差值传送,P帧的压缩比较高。 B帧:双向预测内插编码帧。 B帧的预测与重构 B帧以前面的I或P帧和后面的P帧为参考帧,“找出”B帧“某点”的预测值和两个运动矢量,并取预测差值和运动矢量传送。接收端根据运动矢量在两个参考帧中“找出(算出)”预测值并与差值求和,得到B帧“某点”样值,从而可得到完整的B帧。 B帧特点 1.B帧是由前面的I或P帧和后面的P帧来进行预测的; 2.B帧传送的是它与前面的I或P帧和后面的P帧之间的预测误差及运动矢量; 3.B帧是双向预测编码帧; 4.B帧压缩比最高,因为它只反映丙参考帧间运动主体的变化情况,预测比较准确; 5.B帧不是参考帧,不会造成解码错误的扩散。

相关文档
最新文档