视频音频编码知识
音视频编码标准

MPEG-2标准目前分为9个部分,各部分的内容描述如下:
1) 第一部分-ISO/IEC13818-1,System:系统,描述多个视频,音频和数据基本码流合成
传输码流和节目码流的方式。
2) 第二部分-ISO/IEC13818-2,Video:视频,描述视频编码方法。
3. ISO MPEG-2 标准
MPEG组织在1994年推出了MPEG-2压缩标准,并在1995年成为国际标准,编号为ISO/IEC13818。
MPEG- 2标准是针对标准数字电视和高清晰度电视在各种应用下的压缩方案和系统层的详细规定,编码码率可达100Mbps。MPEG-2不是MPEG-1的简单升级,它在系统和传送方面作了更加详细的规定和进一步的完善。MPEG-2特别适用于广播级的数字电视的编码和传送,被认定为SDTV和 HDTV的编码标准。
b. 编解码的数据结构
MPEG- 4按照如下五个层次组织要编码的图像,从上至下依次为:视频段VS(Video Session) 、视频对象 VO(Video Object)、视频对象层VOL(Video Object Layer)、视频对象组层 GOV (Group of Video Object Plane)、视频对象平面VOP(Video Object Plane)。
(1)MPEG-4标准的构成
1) 多媒体传送整体框架(DMIF):主要解决交互网络中、广播环境下以及磁盘应用中多媒体应 用的操作问题。通过DMIF,MPEG-4可以建立起具有特殊品质服务(QoS)的信道和面向每个基本 流的带宽。
2) 数据平面:MPEG-4中的数据平面可以分为传输关系和媒体关系两部分,并引用了对象描述 (OD)和流图桌面(SMT)的概念,使基本流和AV对象在同一场景中出现。
音视频编码一些参数解析:码流、码率、比特率、帧速率、分辨率、高清的区别

⾳视频编码⼀些参数解析:码流、码率、⽐特率、帧速率、分辨率、⾼清的区别GOP/ 码流 /码率 / ⽐特率 / 帧速率 / 分辨率GOP(Group of picture)关键帧的周期,也就是两个IDR帧之间的距离,⼀个帧组的最⼤帧数,⼀般的⾼视频质量⽽⾔,每⼀秒视频⾄少需要使⽤ 1 个关键帧。
增加关键帧个数可改善质量,但是同时增加带宽和⽹络负载。
需要说明的是,通过提⾼GOP值来提⾼图像质量是有限度的,在遇到场景切换的情况时,H.264编码器会⾃动强制插⼊⼀个I帧,此时实际的GOP值被缩短了。
另⼀⽅⾯,在⼀个GOP中,P、B帧是由I帧预测得到的,当I帧的图像质量⽐较差时,会影响到⼀个GOP中后续P、B帧的图像质量,直到下⼀个GOP开始才有可能得以恢复,所以GOP值也不宜设置过⼤。
同时,由于P、B帧的复杂度⼤于I帧,所以过多的P、B帧会影响编码效率,使编码效率降低。
另外,过长的GOP还会影响Seek操作的响应速度,由于P、B帧是由前⾯的I或P帧预测得到的,所以Seek操作需要直接定位,解码某⼀个P或B帧时,需要先解码得到本GOP内的I帧及之前的N个预测帧才可以,GOP值越长,需要解码的预测帧就越多,seek响应的时间也越长。
CABAC/CAVLCH.264/AVC标准中两种熵编码⽅法,CABAC叫⾃适应⼆进制算数编码,CAVLC叫前后⾃适应可变长度编码,CABAC:是⼀种⽆损编码⽅式,画质好,X264就会舍弃⼀些较⼩的DCT系数,码率降低,可以将码率再降低10-15%(特别是在⾼码率情况下),会降低编码和解码的速速。
CAVLC将占⽤更少的CPU资源,但会影响压缩性能。
帧:当采样视频信号时,如果是通过逐⾏扫描,那么得到的信号就是⼀帧图像,通常帧频为25帧每秒(PAL制)、30帧每秒(NTSC 制);场:当采样视频信号时,如果是通过隔⾏扫描(奇、偶数⾏),那么⼀帧图像就被分成了两场,通常场频为50Hz(PAL制)、60Hz(NTSC制);帧频、场频的由来:最早由于抗⼲扰和滤波技术的限制,电视图像的场频通常与电⽹频率(交流电)相⼀致,于是根据各地交流电频率不同就有了欧洲和中国等PAL制的50Hz和北美等NTSC制的60Hz,但是现在并没有这样的限制了,帧频可以和场频⼀样,或者场频可以更⾼。
多媒体系统中的音视频编解码技术教程

多媒体系统中的音视频编解码技术教程随着科技的迅猛发展,多媒体技术已经成为我们生活中不可或缺的一部分。
而音视频编解码技术作为多媒体系统的核心技术,发挥着至关重要的作用。
本文将介绍多媒体系统中的音视频编解码技术,包括其基本原理、常用的编解码算法及其应用场景和发展趋势。
一、音视频编解码技术的基本原理1、音视频编解码的定义音视频编解码是将音频和视频信号转换为数字形式并进行压缩的过程。
编码是指将原始的音频和视频信号转换为数字信号,而解码则是将压缩的数字信号转换为可播放的音频和视频信号。
2、音视频编解码的步骤音视频编解码一般包括以下几个步骤:采样、量化、编码、解码和重构。
采样是将连续的音频和视频信号转换为离散的数字信号,量化是将连续的信号转换为离散的幅度值,编码是将幅度值转换为数字编码,解码是将数字编码还原为幅度值,而重构则是将数字信号转换为可播放的音频和视频信号。
3、音视频编解码的基本原理音视频编解码的基本原理是通过去除信号中的冗余和不可察觉的部分信息,从而实现信号的压缩。
音频信号可以利用声音的听觉特性实现压缩,视频信号则可利用人眼的视觉特性实现压缩。
常用的音视频编解码算法包括MPEG-1、MPEG-2、MPEG-4和H.264等。
二、常用的音视频编解码算法及其应用场景1、MPEG-1MPEG-1是最早的音视频编解码标准之一,它适用于低码率的音视频压缩。
MPEG-1可以有效地压缩音频和视频信号,并在带宽有限的网络条件下进行传输和播放。
MPEG-1广泛应用于CD、VCD和网络视频等领域。
2、MPEG-2MPEG-2是一种高质量的音视频编解码标准,它适用于高清晰度的视频和多声道的音频压缩。
MPEG-2广泛应用于数字电视、DVD和蓝光光盘等领域,具有较好的兼容性和稳定性。
3、MPEG-4MPEG-4是一种面向互联网的音视频编解码标准,它能够实现更高的压缩比和更好的音视频质量。
MPEG-4在视频会议、流媒体和移动多媒体等领域得到广泛应用,具有较好的可扩展性和适应性。
音视频编解码原理

音视频编解码原理
音视频编解码原理是指将音频和视频信号转化成数字信号的过程。
编码是将原始的音频、视频数据通过一种特定的算法转化为数字信号的过程,而解码是将数字信号重新还原为原始的音频、视频数据的过程。
在音频编解码原理中,常用的编码方式包括PCM编码、MP3编码、AAC编码等。
PCM编码是一种无损压缩的编码方式,它将模拟音频信号通过采样和量化的方式转化为数字信号。
MP3编码是一种有损压缩的编码方式,它通过对音频信号的频域信息进行压缩,从而减小文件的大小。
AAC编码是一种采用人类听觉模型的有损压缩编码方式,它在保持音频质量的同时,能够显著减小文件的大小。
在视频编解码原理中,常用的编码方式包括MPEG编码、H.264编码、H.265编码等。
MPEG编码是一种以压缩帧为基本单位的编码方式,它通过对连续帧之间的差异进行编码,实现对视频信号的压缩。
H.264编码是一种采用基于运动补偿的编码方式,它通过对运动部分和非运动部分的差异进行编码,从而实现对视频信号的压缩。
H.265编码是一种比H.264更高效的编码方式,它采用了更加先进的技术,能够在保持视频质量的同时,减小文件的大小。
在音视频编解码原理中,编码和解码是相互配合的过程。
编码将音频、视频信号转化为数字信号,减小了数据的体积;解码将数字信号还原为原始的音频、视频数据,恢复了信号的完整
性。
通过音视频编解码技术,可以实现音频、视频的高质量传输和存储,提升了音视频应用的效果和用户体验。
音视频的编码解码

编码:编码和文件格式(也称容器)是什么?文件(即容器)是既包括了视频、又包括音频、甚至还带有一些脚本的集合;文件中视频和音频的压缩算法才是真正的编码;对于一种文件,它的视频和音频可以分别采用不同的编码。
1.什么是视频编码?所谓视频编码就是通过特定的压缩技术,将某个视频格式的文件转换成另外一种视频格式文件的方法。
视频编码的主要功能是完成图像的压缩,使数字电视信号的传输量由1Gbit/s(针对1920x1080显示格式)减少为20-30Mbit/s。
2.什么是音频编码?自然界中的声音以及波形都非常复杂,声音其实也是一种能量波,它有频率和振幅;其中频率所对应的是时间轴线,振幅对应的是电平轴线。
波是无限光滑的,弦线可看成由无数点组成。
音频编码主要是完成对声音信息的压缩。
声音信号数字化后,信息量比模拟传输状态大很多,不能像模拟电视声音那样直接传输;因而需要对声音多一道压缩编码工序,即为音频编码。
1.视频编码原理简介视频编码主要是对图像进行有效的压缩。
原始视频图像数据中包含大量的冗余信息视频编码主要采取块运动估计和运动补偿技术有效的去除图像帧间冗余度,来压缩码率和带宽,实现信号有效传输的目的。
2.音频编码的原理简介我们需要通过抽样、量化、编码三个步骤将连续变化的模拟信号转换为数字信号。
抽样就是在时间上将模拟信号离散化。
量化是用有限个幅度值近似原来连续变化的幅度值,把模拟信号的连续幅度变为有限数量的有一定间隔的离散值。
编码就是按一定的规律把量化后的值用二进制数字表示,然后转换成二值或多值得数字信号流。
通常我们采用PCM编码,其主要过程是将话音、图像等模拟信号每隔一段时间进行取样,使其离散化,同时将抽样值按分层单位四舍五入取整量化,并将抽样值按一组二进制码来表示抽样脉冲的幅值。
目前常见的几种视频编码技术方案:1)MPEG-2MPEG-2图像压缩的原理是主要利用了图像中的两种特性:空间相关性和时间相关性.另外它综合采用了运动补偿的帧间预测、空间域离散余弦变换、自适应量化和可变长编码的混合编码。
音视频编解码理解音视频处理的编程原理

音视频编解码理解音视频处理的编程原理音视频编解码是指将音视频信号转换为数字信号的过程,然后再将数字信号转换为可播放的音视频信号的过程。
在现代多媒体应用中,音视频编解码在很多方面都扮演着重要的角色,包括音频录制、音频处理、视频录制、视频处理等。
本文将详细介绍音视频编解码的原理以及与编程相关的技术。
一、音视频编解码的基本原理音视频编解码的基本原理是将模拟信号(如声音、图像)转换为数字信号,然后对数字信号进行压缩和解压缩处理,最后将解压缩后的信号转换为模拟信号以供播放。
整个过程可以分为以下几个关键步骤:1. 采样与量化:音视频信号是连续的模拟信号,在进行编码处理之前,需要对信号进行采样和量化操作。
采样是指周期性地记录信号的数值,量化是指将采样得到的连续信号的值映射为离散的数值。
2. 压缩编码:在音视频处理过程中,数据量通常非常庞大,如果直接将原始数据进行存储和传输,会导致资源浪费和传输速度慢。
因此,压缩编码技术应运而生。
压缩编码是通过编码算法对音视频信号进行压缩,减小数据量。
常见的音视频压缩编码算法有MPEG、H.264等。
3. 压缩数据传输与存储:经过压缩编码后的音视频数据可以更加高效地进行传输和存储。
传输方面,可以通过网络协议(如RTSP、RTP)将音视频数据传输到远程设备进行播放。
存储方面,可以将音视频数据保存在本地设备或其他存储介质中。
4. 解压缩处理:在音视频播放过程中,需要对编码后的音视频数据进行解压缩处理。
解压缩是压缩的逆过程,通过解码算法将压缩后的音视频数据还原为原始的数字信号。
5. 数字信号转换为模拟信号:解压缩处理后的音视频数据是数字信号,需要将其转换为模拟信号以供播放。
这一过程叫做数模转换,常见的设备有扬声器和显示器等。
二、音视频编码相关的编程原理与技术音视频编码相关的编程原理与技术主要包括以下几个方面:1. 编码库与解码库:编码库是实现音视频压缩编码的关键组件,解码库则是实现解压缩处理的关键组件。
视频编码跟音频编码常识新

视频与音频编码知识动态链接:Adobe premiere pro编码定义:原始的视屏图像数据和音频信息都包含有大量的冗余信息,编码就是压缩的过程,将信息中的冗余信息去掉。
分为视屏编码和音频编码,两者是分开的。
一般来说视频比那马方案往往决定了高清视频的画质高低(严格意义上还有码率因素).音频编码决定了起音质的好坏。
常用视频编码:XVID(DIVX的升级版),DIVX,H.264,MPEG-2\MPEG-4等。
Mpeg1:早期vcd使用,分辨率是352*288,压缩比低。
Mpeg2:一般DVD使用,有NTSC(720*480)和PAL(720*576),压缩比高于mpeg1.Mpeg4:目前使用最多的技术,avi文件始祖,大大提高压缩比,而质量堪比DVDDivx:基于mpeg4开发,有一定算法优先。
Xvid:divx技术封锁以后被人破解开发的,也是基于mpeg4的编码技术更先进,采用开放源码,画质更好。
H.261:早期的低码率编码,应用于352*288和176*144,现在已不用。
H.263:在低码率下能够提供比H.261更好的图像效果,改进一些算法。
H.263+:h.263的改进型H.264:H.264集中了以往标准的优点,高效压缩,与H.263+和mpeg4 sp相似。
Rm\rmvb:real 公司推出的应用于网络的高压缩编码,rm 是固定码率。
Rmvb是动态码率(就是静态画面采用低码率,动态采用高码率)X264X264是国际标准H.264的编码器实现,是一个开源encoder,得益于H.264的高效压缩性能,加之于X264的高效(编码速度快)实现,X264目前被广泛应用于DVDrip 领域。
封装格式(也叫容器)所谓封装格式就是将已经编码压缩好的视频和音频按照一定的格式放到一个文件中,也就是说仅仅是一个外壳。
格式类型AVI:微软在90年代初创立的封装标准,是当时为对抗quicktime格式(mov)而推出的,只能支持固定CBR恒定比特率编码的声音文件。
视频会议的音视频编解码技术

视频会议的音视频编解码技术随着全球化的发展和工作场景的变迁,视频会议已经成为了我们日常工作和社交交流的必要方式。
而视频会议能够正常进行,离不开音视频编解码技术的支持。
本文将从编解码原理、编解码标准、编解码器选择、编解码效果等方面,探讨视频会议的音视频编解码技术。
一、编解码原理音视频编解码技术是通过压缩和解压缩实现的。
所谓压缩,是指通过算法等方式将音视频信号中的冗余内容去掉,从而降低信号的数据量,以达到传输、存储等目的;解压缩则是指将压缩后的音视频信号还原成原始信号。
在音视频编解码中,编码是通过将原始信号转换成数字信号,并将数字信号压缩来实现的。
解码则是对压缩后的信号进行还原,并将其转换为显示或播放所需的信号。
二、编解码标准编解码标准是指压缩和解压缩音视频信号所使用的数据格式、算法、参数等规范。
在视频会议中,常用的编解码标准包括H.264/AVC、H.265/HEVC、VP8、VP9等。
H.264/AVC是目前视频会议中最普及的编解码标准。
它采用了先进的压缩算法,可以在保证视频质量的前提下实现更小的数据传输量。
而H.265/HEVC则是H.264/AVC的升级版,它能够在不降低画质的情况下,实现更高的压缩比,进一步降低视频传输成本。
VP8和VP9则是由Google开发的开源编解码标准,在一些商业应用中得到一定应用。
它们的优势在于能够在低带宽情况下保证视频质量,同时在压缩比方面也有较高的表现。
三、编解码器的选择选择正确的编解码器对于视频会议的流畅程度和画质有着至关重要的影响。
目前,常见的编解码器包括x264、x265、ffmpeg 等。
x264是一款开源的H.264/AVC编码器,它的编码速度快,压缩比高,适合在较低带宽环境中进行视频会议。
x265则是x264的升级版,能够更高效地运用CPU的处理能力,同时在保证视频质量的前提下,实现更小的视频文件大小。
而ffmpeg则是一款集多种视频编解码器于一身的开源软件,能够对多种视频编码进行支持,能够应对各种视频会议场景。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
audio。
AAC(Advanced Audio Coder)区别于ac3,mp3(全称MPEG1 Layer3,可不是MPEG3的缩写哦)等等,aac是Mp4官方指定的mp4音频规格。
和video一样,她也有两个profile:- LC-AAC (Low Complexity) 也被叫做MAIN @ Level 2- HE-AAC (High Efficiency) 也被叫做AAC SBR/AAC+/aacplus再次抛开技术性的数据,HE比LC更高级一些,允许你在相同音质下已更低的bitrate编码。
帧间压缩。
其次,时间相关性的统计分析:统计的结果表明,在间隔1~2帧的图像中,各像素只有10%以下的点,其亮度差值变化超过2%,而色度差值的变化只有1%以下。
采用的压缩方法: 分组:把几帧图像分为一组(GOP),为防止运动变化,帧数不宜取多。
1.定义帧:将每组内各帧图像定义为三种类型,即I帧、B帧和P帧;2.预测帧:以I帧做为基础帧,以I帧预测P帧,再由I帧和P帧预测B帧;3.数据传输:最后将I帧数据与预测的差值信息进行存储和传输。
I帧:帧内编码帧I帧特点:1.它是一个全帧压缩编码帧。
它将全帧图像信息进行JPEG压缩编码及传输;2.解码时仅用I帧的数据就可重构完整图像;3.I帧描述了图像背景和运动主体的详情;4.I帧不需要参考其他画面而生成;5.I帧是P帧和B帧的参考帧(其质量直接影响到同组中以后各帧的质量);6.I帧是帧组GOP的基础帧(第一帧),在一组中只有一个I帧;7.I帧不需要考虑运动矢量;8.I帧所占数据的信息量比较大。
P帧:前向预测编码帧。
P帧的预测与重构:P帧是以I帧为参考帧,在I帧中找出P帧“某点”的预测值和运动矢量,取预测差值和运动矢量一起传送。
在接收端根据运动矢量从I帧中找出P帧“某点”的预测值并与差值相加以得到P帧“某点”样值,从而可得到完整的P帧。
P帧特点:1.P帧是I帧后面相隔1~2帧的编码帧;2.P帧采用运动补偿的方法传送它与前面的I或P帧的差值及运动矢量(预测误差);3.解码时必须将I帧中的预测值与预测误差求和后才能重构完整的P帧图像;4.P帧属于前向预测的帧间编码。
它只参考前面最靠近它的I帧或P帧;5.P帧可以是其后面P帧的参考帧,也可以是其前后的B帧的参考帧;6.由于P帧是参考帧,它可能造成解码错误的扩散;7.由于是差值传送,P帧的压缩比较高。
B帧:双向预测内插编码帧。
B帧的预测与重构B帧以前面的I或P帧和后面的P帧为参考帧,“找出”B帧“某点”的预测值和两个运动矢量,并取预测差值和运动矢量传送。
接收端根据运动矢量在两个参考帧中“找出(算出)”预测值并与差值求和,得到B帧“某点”样值,从而可得到完整的B帧。
B帧特点1.B帧是由前面的I或P帧和后面的P帧来进行预测的;2.B帧传送的是它与前面的I或P帧和后面的P帧之间的预测误差及运动矢量;3.B帧是双向预测编码帧;4.B帧压缩比最高,因为它只反映丙参考帧间运动主体的变化情况,预测比较准确;5.B帧不是参考帧,不会造成解码错误的扩散。
注:I、B、P各帧是根据压缩算法的需要,是人为定义的,它们都是实实在在的物理帧,至于图像中的哪一帧是I帧,是随机的,一但确定了I帧,以后的各帧就严格按规定顺序排列。
x264参数介绍(一、帧类型和码率控制)本页说明所有x264参数之目的和用法。
参数的排列相同于在x264 --fullhelp出现的顺序。
参阅:X264统计资料输出、X264统计资料档案和X264编码建议。
x264设定说明x264带有一些内置的文件。
要阅读此说明,执行x264 --help、x264 --longhelp或x264 --fullhelp。
越后面的选项会提供越详细的资讯。
输入以一个位置引数指定输入的视讯。
例如:x264.exe --output NUL C:\input.avs x264 --output /dev/null ~/input.y4m当输入是raw YUV格式时,还必须告知x264视讯的分辨率。
你可能也要使用--fps来指定帧率:x264.exe --output NUL --fps 25 --input-res 1280x720 D:\input.yuv x264 --output /dev/null --fps 30000/1001 --input-res 640x480 ~/input.yuv默认为了减少使用者花费时间和精力在命令列上而设计的一套系统。
这些设定切换了哪些选项可以从x264 --fullhelp的说明里得知。
profile默认:无说明:限制输出文件的profile。
这个参数将覆盖其它所有值,此选项能保证输出profile兼容的视频流。
如果使用了这个选项,将不能进行无损压缩(qp 0 or crf 0)。
可选:baseline,main,high- Baseline Profile 提供I/P帧,仅支持progressive(逐行扫描)和CAVLC- Extended Profile 提供I/P/B/SP/SI帧,仅支持progressive(逐行扫描)和CAVLC- Main Profile 提供I/P/B帧,支持progressive(逐行扫描)和interlaced(隔行扫描),提供CAVLC或CABAC- High Profile (也就是FRExt)在Main Profile基础上新增:8x8 intra prediction(8x8 帧内预测), custom quant(自定义量化), lossless video coding(无损视频编码), 更多的yuv格式(4:4:4...)建议:不设置。
除非解码环境只支持main或者baseline profile的解码。
preset默认:medium一些在压缩效率和运算时间中平衡的预设值。
如果指定了一个预设值,它会在其它选项生效前生效。
可选:ultrafast, superfast, veryfast, faster, fast, medium, slow, slower, veryslow and placebo. 建议:可接受的最慢的值tune默认:无说明:在上一个选项基础上进一步优化输入。
如果定义了一个tune值,它将在preset之后,其它选项之前生效。
可选:film, animation, grain, stillimage, psnr, ssim, fastdecode, zerolatency and touhou.建议:根据输入选择。
如果没有合适的就不要指定。
slow-firstpass默认:无说明:随着预设值机制在r1177版本的出现,使用–pass 1会在解析命令行时增加以下设置:* ref 1* no-8x8dct* partitions i4x4 (if originally enabled, else none)* me dia* subme MIN( 2, subme )* trellis 0如果设置preset=placebo则自动关闭此特性。
如果想显式关闭此特性,使用slow-firstpass。
帧类型keyint默认:250说明:设置x264输出中最大的IDR帧(亦称关键帧)间距。
IDR帧是视频流的“分隔符”,所有帧都不可以使用越过关键帧的帧作为参考帧。
IDR帧是I帧的一种,所以它们也不参照其它帧。
这意味着它们可以作为视频的搜索(seek)点。
通过这个设置可以设置IDR帧的最大间隔帧数(亦称最大图像组长度)。
较大的值将导致IDR帧减少(会用占用空间更少的P帧和B帧取代),也就同时减弱了参照帧选择的限制。
较小的值导致减少搜索一个随机帧所需的平均时间。
建议:默认值(fps的10倍)对大多数视频都很好。
如果在为蓝光、广播、直播流或者其它什么专业流编码,也许会需要更小的图像组长度(一般等于fps)。
参见:min-keyint, scenecut, intra-refreshmin-keyint默认:auto(keyint/10)说明:参见keyint的说明。
过小的keyint范围会导致产生“错误的”IDR帧(比如说,一个闪屏场景,参见上一篇blog)。
此选项限制了IDR帧之间的最小距离。
建议:默认,或者与fps相等参见:keyint, scenecutno-scenecut默认:无说明:完全关闭自适应I帧决策。
参见:scenecutscenecut默认:40说明:设置决策使用I帧、IDR帧的阈值(场景变换检测)。
x264会计算每一帧与前一帧的不同程度并得出一个值。
如果这个值低于scenecut,那么就算检测到一个“场景变换”。
如果此时距离上一帧的距离小于 min-keyint则插入一个I 帧,反之则插入一个IDR帧。
较高的值会增加侦测到“场景变换”纪律。
更详细的工作原理可见 /showthread.php?t=121116设置scenecut=0与no-scenecut等效。
建议:使用默认值参见:keyint, min-keyint, no-scenecutintra-refresh默认:off说明:让x264为每keyint数量的帧使用宏块内部编码取代IDR帧。
块以水平移动列的方式更新,也叫刷新波。
对于低延迟的流,这样可以让帧的尺寸比使用标准的IDR帧更加保持恒定。
而且这样可以增强视频流对丢包的容错能力。
这个选项会降低压缩率,所以在确实需要的时候才选择它。
还有一些有意思的事情:1、第一帧依然是IDR帧。
2、内部宏块只在P帧中存在,刷新波在一个或多个B帧后的P帧中广泛存在。
3、主要的压缩率下降原因是在宏块中新(左边)的波并不能参考旧(右边)的波。
建议:使用默认值bframes默认:3说明:设置x264可使用的B帧的最大连续数量。
没有B帧时,一个典型的x264流帧类型是这样的:IPPPPP...PI。
如果设置了-bframes 2,那么两个连续的P帧就可以用B帧替换,然后就像这样:IBPBBPBPPPB (I)B帧和P帧的区别在于它可以参照它之后的帧,这个特点让它可以显著地提升压缩率。
他们的平均品质受–pbratio选项的控制。
还有一些有意思的事情:1、x264有2种B帧,一种可以作为参照帧,一种不能;2、关于x264如何决策B帧或P帧,可以看看这个ffmpeg-devel邮件列表中的这一封 /p.video.ffmpeg.devel/29064。
这种情况下帧类型看起来就像这样IBBBPBBBPBPI(假设设置–bframes 3)。
参见:–no-b-adapt, –b-bias, –b-pyramid, –ref, –pbratio, –partitions, –weightbb-adapt默认:1说明:设置B帧决策算法,这个选项会影响到x264使用P帧或者B帧。