常见视频编码格式与RGB、YUV视频存储格式

合集下载

yuv格式计算

yuv格式计算

yuv格式计算
YUV格式是一种用于表示图像和视频的颜色空间,由Y、U、V三个部分组成,其中Y表示亮度,U和V表示颜色的色度。

在图像处理和视频编码领域,YUV格式被广泛应用,因为它相较于RGB格式可以更有效地存储和传输颜色信息。

YUV格式的计算方法取决于图像的采样方式和分辨率。

以下是以YUV 4:2:0采样格式为例的计算方法:
1. 首先,将RGB三原色转换为YUV格式。

对于每个像素的RGB值(R,G,B),按照以下公式计算Y、U、V值:
Y = 0.299 * R + 0.587 * G + 0.114 * B
U = -0.147 * R - 0.144 * G + 0.274 * B
V = 0.439 * R - 0.368 * G + 0.131 * B
2. 接下来,根据YUV采样格式进行色度抽样。

在YUV 4:2:0格式中,每个Y像素对应两个U和V像素。

因此,需要将计算得到的U和V 值进行色度抽样,得到对应的U'和V'值。

色度抽样的方法有很多种,如线性插值、二次插值等。

3. 将得到的Y、U'、V'值组合成一个YUV格式的数据块。

通常,YUV 数据块的存储顺序是YUV、YUV、...依次排列。

4. 最后,按照图像的分辨率和其他参数,将YUV数据块进行分组和编码。

常见的编码格式有MPEG-4、H.264等。

需要注意的是,不同的采样格式、分辨率和其他参数可能导致计算方法略有不同。

在实际应用中,根据具体需求选择合适的计算方法和编码格式。

RGB、YUY2、YUYV、YVYU、UYVY、AYUV格式详解

RGB、YUY2、YUYV、YVYU、UYVY、AYUV格式详解

RGB、YUY2、YUYV、YVYU、UYVY、AYUV格式详解小知识:RGB与YUV--摘自《DirectShow实务精选》作者:陆其明计算机彩色显示器显示色彩的原理与彩色电视机一样,都是采用R(Red)、G(Green)、B(Blue)相加混色的原理:通过发射出三种不同强度的电子束,使屏幕内侧覆盖的红、绿、蓝磷光材料发光而产生色彩。

这种色彩的表示方法称为RGB色彩空间表示(它也是多媒体计算机技术中用得最多的一种色彩空间表示方法)。

根据三基色原理,任意一种色光F都可以用不同分量的R、G、B三色相加混合而成。

F=r[R]+g[G]+b[B]其中,r、g、b分别为三基色参与混合的系数。

当三基色分量都为0(最弱)时混合为黑色光;而当三基色分量都为k(最强)时混合为白色光。

调整r、g、b三个系数的值,可以混合出介于黑色光和白色光之间的各种各样的色光。

那么YUV又从何而来呢?在现代彩色电视系统中,通常采用三管彩色摄像机或彩色CCD摄像机进行摄像,然后把摄得的彩色图像信号经分色、分别放大校正后得到RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号R-Y(即U)、B-Y(即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。

这种色彩的表示方法就是所谓的YUV色彩空间表示。

采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。

如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。

彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。

YUV与RGB相互转换的公式如下(RGB取值范围均为0-255):Y=0.299R+0.587G+0.114BU=-0.147R-0.289G+0.436BV=0.615R-0.515G-0.100BR=Y+1.14VG=Y-0.39U-0.58VB=Y+2.03U在DirectShow中,常见的RGB格式有RGB1、RGB4、RGB8、RGB565、RGB555、RGB24、RGB32、ARGB32等;常见的YUV格式有YUY2、YUYV、YVYU、UYVY、AYUV、Y41P、Y411、Y211、IF09、IYUV、YV12、YVU9、YUV411、YUV420等。

YUV、RGB、RAW DATA、JPEG 区别

YUV、RGB、RAW DATA、JPEG 区别

Sensor信号输出YUV、RGB、RAW DATA、JPEG区别简单来说:YUV:luma(Y)+chroma(UV)格式,一般情况下sensor支持YUV422格式,即数据格式是按Y-U-Y-V次序输出的:RGB:传统的红绿蓝格式,比如RGB565,其16-bit数据格式为5-bit R+6-bit G+5-bit B。

G多一位,原因是人眼对绿色比较敏感;RAW RGB:sensor的每一像素对应一个彩色滤光片,滤光片按Bayer pattern分布。

将每一个像素的数据直接输出,即RAW RGB data;JPEG:有些sensor,特别是低分辨率的,其自带JPEG engine,可以直接输出压缩后的jpg格式的数据对于这几种输出格式,几个疑问:1、有些手机基带芯片只能支持2M以下的YUV sensor,3M以上只能使用JPEG sensor,这里说明YUV输出格式对基带芯片有一定的要求,那么到底YUV sensor对基带芯片有怎样的要求呢?2、如果直接输出RGB,对于LCD的显示是最方便的,那么为何大多数基带芯片都是要求输出为YUV格式的数据再进行处理呢?1.YUV一个像素占2B,如果像素太高在高时钟下基带芯片处理不过来,JPEG数据量就要小的多,所以不是YUV对基带芯片有要求而是基带芯片对输出数据速率有要求。

2.RGB565一般用在很低端的基带芯片上,直接往屏上刷。

YUV输出亮度信号没有任何损失,而色偏信号人眼并不是特别敏感,RGB565输出格式是R5G3G3B5会丢掉很多原始信息,所以YUV图像质量和稳定性要比RGB565好的多3.RAW数据每个像素就1B,数据量要少很多,一般5M以上sensor就只输出RAW 数据以保证比较快的输出速度,后端挂一个DSP来处理输出的数据。

--------------------------------------------------------------------------------RAW和JPEG的区别RAW格式文件基本上是一个没有经任何图像处理的源文件,它能原原本本地记录相机拍摄到的信息,没有因为图像处理(如锐化、增加色彩对比)和压缩而造成的信息丢失,但需要用特别的软件来打开这些文件。

了解显卡视频输出格式RGB与YUV的区别

了解显卡视频输出格式RGB与YUV的区别

了解显卡视频输出格式RGB与YUV的区别随着科技的不断进步和发展,电脑显卡在我们的日常生活中扮演着越来越重要的角色。

它不仅可以提供图像的处理和计算能力,还决定了我们在电脑上观看视频和玩游戏时的视觉效果。

然而,对于很多人来说,关于显卡视频输出格式RGB与YUV的区别并不是很清楚。

本文将解释这两种常见的视频输出格式之间的差异和应用场景。

一、RGBRGB是红绿蓝三种基本颜色的缩写,它是由红色(R)、绿色(G)和蓝色(B)三种原色组成的。

在RGB格式中,每个像素点都由这三种颜色的不同亮度和强度组合而成。

通过调节每一种颜色的比例和亮度,我们可以创建出丰富多彩的图像。

RGB格式的主要优点是色彩的准确性和稳定性。

由于每个像素点都由三种原色组成,RGB格式可以提供更精确的图像细节和更真实的颜色表现。

这使得它在图像处理、摄影和广告设计等领域得到广泛应用。

然而,RGB格式也存在一些局限性。

首先,它需要更大的数据量来表示每个像素点的颜色信息,这就导致了文件大小的增加。

其次,RGB格式并不适用于所有的视频显示设备,例如电视和视频投影仪等。

这是因为大多数视频显示设备使用的是YUV格式。

二、YUVYUV格式是一种类似RGB的视频编码方式,它由亮度(Y)和色度(U和V)两个分量组成。

亮度分量表示图像的明暗程度,而色度分量则表示图像的颜色信息。

在YUV格式中,图像的亮度和色度分量分别经过压缩和编码处理,以减小数据量。

与RGB相比,YUV格式具有更高的压缩率和更小的文件大小。

这使得在存储和传输大量视频数据时更加高效。

此外,YUV格式也适用于各种视频显示设备,因为它可以根据设备的需求进行颜色转换,并提供适当的色彩空间。

然而,由于YUV格式对颜色信息进行了压缩处理,它相对于RGB格式而言在图像细节和颜色准确性上略有损失。

尽管这种损失在肉眼观察下很难察觉,但在一些对颜色表现要求极高的场合,如电影制作和专业摄影等领域,RGB格式仍然被广泛使用。

YUV与RGB

YUV与RGB

RGB 格式是将色彩分成红绿蓝3个分量,没有红绿蓝时为黑色,红绿蓝3色都最亮时为白色。

常见的RGB格式有16 bit(高彩)和24bit(真彩),16 bit的RGB格式实际上还包含15 bit RGB和真16 bit RGB, 这两种格式都将红和蓝分成32等级,但是15bitRGB(也称为5-5-5 RGB)将绿色分成32等级,而16 bit RGB则将绿色分成64等级(所谓5-6-5 RGB),不过这两者占据的空间是相同的。

24 bit GRB(8-8-8 RGB)是将3个色道都分成256等级。

所有RGB24就是RGB888YUV和YCrCb(亮度/色度)格式,这两种格式非常相似,它是将色彩分成一个Y值(亮度)和两个U值和V值(定义颜色),这种格式实际上是利用了人眼的视觉特性,对亮度比较敏感,而对颜色相对较迟钝。

也由于这个原因,有些YUV格式采用了色度抽样,即U/V 值是针对一个象素组合来确定的,而不是一个单个象素,于是便出现了YUV9,YUV12等不同的格式,最普遍的是YUV12,常用于MPEG视频解码后的输出,每个象素都有自己的Y值,但是U/V值则包括了2x2象素组,或者说每个2x2象素组只有一个U/V值,相当于每个象素用了12 bit来编码,所以叫YUV12。

YUV9与YUV12类似,不同的是YUV9中的U/V值包含了4x4个象素组,因此在YUV9里面,每个象素由9 bit来编码。

关于RGB-YUV转换,这在视频编码里面是一个常见的预处理步骤。

对电脑产生的图形进行编码时,要特别小心YUV转换,因为色度抽样很容易导致图像中的颜色产生色渗透。

代码typedef struct YUVTRIPLE_FAST{BYTE V;BYTE U;BYTE Y;} YUVTRIPLE;inline RGBTRIPLE YUV2RGB(YUVTRIPLE yuv){int r, g, b;RGBTRIPLE rgb;r = (298*(yuv.Y-16) + 409*(yuv.V - 128) + 128) > > 8;g = (298*(yuv.Y-16) - 100*(yuv.U - 128) - 208*(yuv.V - 128) + 128)> > 8;b = (298*(yuv.Y-16) + 516*(yuv.U - 128) +128) > > 8;if(r > 255) r = 255;else if(r < 0) r = 0;if(g > 255) g = 255;else if(g < 0) g = 0;if(b > 255) b = 255;else if(b < 0) b = 0;rgb.rgbtRed = r;rgb.rgbtGreen = g;rgb.rgbtBlue = b;return rgb;}inline YUVTRIPLE RGB2YUV(RGBTRIPLE rgb){YUVTRIPLE yuv;yuv.Y = ((66*rgb.rgbtRed + 129*rgb.rgbtGreen + 25*rgb.rgbtBlue + 128) > > 8) + 16;yuv.U = ((-38*rgb.rgbtRed - 74*rgb.rgbtGreen + 112*rgb.rgbtBlue + 128) > > 8) + 128;yuv.V = ((112*rgb.rgbtRed - 94*rgb.rgbtGreen - 18*rgb.rgbtBlue + 128) > > 8) + 128;return yuv;}/china/MSDN/library/enterprisedevelopment/softwaredev/VideoRende8 BitYUV.mspx?mfr=trueorConvertYuvToRGB24Bstream(LPBYTE pY,LPBYTE pCb,LPBYTE pCr,LPBYTE hpOutput,int imWidth,int imHeight){//WTYPE *pY, *pCr, *pCb;LPBYTE cbuf;long x, y;short int r,g,b;cbuf = hpOutput;for (y=0; y <imHeight; y++ ){cbuf = hpOutput + ((imWidth*3)*(imHeight-y-1));for (x=0; x <imWidth/2; x++){YUV2RGB(pY[0],pCb[0],pCr[0],r,g,b);cbuf[0] = (unsigned char)b;//TRIM(b);// cbuf[1] = (unsigned char)g;//TRIM(g);// cbuf[2] = (unsigned char)r;//TRIM(r);// YUV2RGB(pY[1],pCb[0],pCr[0],r,g,b);cbuf[3] = (unsigned char)b;//TRIM(b);// cbuf[4] = (unsigned char)g;//TRIM(g);// cbuf[5] = (unsigned char)r;//TRIM(r);// cbuf += 6;pY += 2;pCr++;pCb++;}}}。

对YUV格式的详细描述,以及存储形式

对YUV格式的详细描述,以及存储形式

对YUV格式的详细描述,以及存储形式YUV主要的采样格式主要的采样格式有YCbCr 4:2:0、YCbCr 4:2:2、YCbCr 4:1:1和 YCbCr 4:4:4。

其中YCbCr 4:1:1 比较常用,其含义为:每个点保存一个 8bit 的亮度值(也就是Y值), 每 2x2 个点保存一个 Cr 和Cb 值, 图像在肉眼中的感觉不会起太大的变化。

所以, 原来用 RGB(R,G,B 都是 8bit unsigned) 模型, 4 个点需要8x3=24 bites(如下图第一个图). 而现在仅需要 8+(8/4)+(8/4)=12bites, 平均每个点占12bites(如下图第二个图)。

这样就把图像的数据压缩了一半。

上边仅给出了理论上的示例,在实际数据存储中是有可能是不同的,下面给出几种具体的存储形式:(1)YUV 4:4:4YUV三个信道的抽样率相同,因此在生成的图像里,每个象素的三个分量信息完整(每个分量通常8比特),经过8比特量化之后,未经压缩的每个像素占用3个字节。

下面的四个像素为: [Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]存放的码流为: Y0 U0 V0 Y1 U1 V1 Y2 U2 V2 Y3 U3 V3(2) YUV 4:2:2每个色差信道的抽样率是亮度信道的一半,所以水平方向的色度抽样率只是4:4:4的一半。

对非压缩的8比特量化的图像来说,每个由两个水平方向相邻的像素组成的宏像素需要占用4字节内存。

下面的四个像素为: [Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]存放的码流为: Y0 U0 Y1 V1 Y2 U2 Y3 V3映射出像素点为:[Y0 U0 V1] [Y1 U0 V1] [Y2 U2 V3] [Y3 U2 V3](3) YUV 4:1:14:1:1的色度抽样,是在水平方向上对色度进行4:1抽样。

YUV、RGB、RAW DATA、JPEG 区别

YUV、RGB、RAW DATA、JPEG 区别

Sensor信号输出YUV、RGB、RAW DATA、JPEG区别简单来说:YUV:luma(Y)+chroma(UV)格式,一般情况下sensor支持YUV422格式,即数据格式是按Y-U-Y-V次序输出的:RGB:传统的红绿蓝格式,比如RGB565,其16-bit数据格式为5-bit R+6-bit G+5-bit B。

G多一位,原因是人眼对绿色比较敏感;RAW RGB:sensor的每一像素对应一个彩色滤光片,滤光片按Bayer pattern分布。

将每一个像素的数据直接输出,即RAW RGB data;JPEG:有些sensor,特别是低分辨率的,其自带JPEG engine,可以直接输出压缩后的jpg格式的数据对于这几种输出格式,几个疑问:1、有些手机基带芯片只能支持2M以下的YUV sensor,3M以上只能使用JPEG sensor,这里说明YUV输出格式对基带芯片有一定的要求,那么到底YUV sensor对基带芯片有怎样的要求呢?2、如果直接输出RGB,对于LCD的显示是最方便的,那么为何大多数基带芯片都是要求输出为YUV格式的数据再进行处理呢?1.YUV一个像素占2B,如果像素太高在高时钟下基带芯片处理不过来,JPEG数据量就要小的多,所以不是YUV对基带芯片有要求而是基带芯片对输出数据速率有要求。

2.RGB565一般用在很低端的基带芯片上,直接往屏上刷。

YUV输出亮度信号没有任何损失,而色偏信号人眼并不是特别敏感,RGB565输出格式是R5G3G3B5会丢掉很多原始信息,所以YUV图像质量和稳定性要比RGB565好的多3.RAW数据每个像素就1B,数据量要少很多,一般5M以上sensor就只输出RAW 数据以保证比较快的输出速度,后端挂一个DSP来处理输出的数据。

--------------------------------------------------------------------------------RAW和JPEG的区别RAW格式文件基本上是一个没有经任何图像处理的源文件,它能原原本本地记录相机拍摄到的信息,没有因为图像处理(如锐化、增加色彩对比)和压缩而造成的信息丢失,但需要用特别的软件来打开这些文件。

S-VideoYUVYCbCrYPbPrRGBVGAWXGA分别的详细介绍

S-VideoYUVYCbCrYPbPrRGBVGAWXGA分别的详细介绍

色差输出色差信号y,r-y,b-y信号一般通称为y, cr,cb; 习惯上y,cr,cb为数字(pcm)的色差信号,模拟的色差信号则称y,pr,pb,所以我们常在dvd player的内部看到y,cr,cb而在dvd player的外部看到色差输出标示为y,pr,pb或yuv;yuv则是在欧洲电视系统pal中的色差信号的通称,包含数字及模拟的色差信号都称 yuv,所以当您看到yuv时您就要联想到它是pal系统中的y,r-y,b-y信号,它可能是数字(pcm)的yuv,也可能是模拟的yuv电视信号都是YUV的。

: : 最初的电视信号是黑白的,后来有彩色的,: : 所以黑白的电视机只用接收Y信号。

: : 彩色的就接收了Y亮度信号以后,还要接收色度信号UV。

: : 另外在计算机上,你看得大多数播放器也都是解码成yuv显示的。

大多是YUY2格式的。

: : 如果你的显卡支持yuv的overlay模式的显示的话,那么就解码成相应的yuv格式显示。

: : 如果不行,再转成rgb显示S-VideoS-Video具体英文全称叫Separate Video,为了达到更好的视频效果,人们开始探求一种更快捷优秀、清晰度更高的视频传输方式,这就是当前如日中天的S-Video(也称二分量视频接口),Separate Video 的意义就是将Video 信号分开传送,也就是在AV接口的基础上将色度信号C和亮度信号Y进行分离,再分别以不同的通道进行传输,它出现并发展于上世纪90年代后期通常采用标准的4 芯(不含音效) 或者扩展的7 芯( 含音效)。

带S-Video接口的视频设备( 譬如模拟视频采集/ 编辑卡电视机和准专业级监视器电视卡/电视盒及视频投影设备等) 当前已经比较普遍,同AV 接口相比由于它不再进行Y/C混合传输,因此也就无需再进行亮色分离和解码工作,而且由于使用各自独立的传输通道在很大程度上避免了视频设备内信号串扰而产生的图像失真,极大提高了图像的清晰度,但S-Video 仍要将两路色差信号(Cr Cb)混合为一路色度信号C,进行传输然后再在显示设备内解码为Cb 和Cr 进行处理,这样多少仍会带来一定信号损失而产生失真(这种失真很小但在严格的广播级视频设备下进行测试时仍能发现) ,而且由于Cr Cb 的混合导致色度信号的带宽也有一定的限制,所以S -Video 虽然已经比较优秀但离完美还相去甚远,S-Video 虽不是最好的,但考虑到目前的市场状况和综合成本等其它因素,它还是应用最普遍的视频接口。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

TCC8900 VPU分析——常见视频编解码格式及RGB和YUV存储格式预研一、常见视频编解码格式1视频文件类别常言道:物以类聚,人以群分。

视频文件也不例外,细细算起来,视频文件可以分成两大类:其一是影像文件,比如说常见的VCD便是一例。

其二是流式视频文件,这是随着国际互联网的发展而诞生的后起视频之秀,比如说在线实况转播,就是构架在流式视频技术之上的。

1.1影像格式 日常生活中接触较多的VCD、多媒体CD光盘中的动画……这些都是影像文件。

影像文件不仅包含了大量图像信息,同时还容纳大量音频信息。

所以,影像文件的“身材”往往不可小觑。

1)AVI格式2)MOV格式3)MPEG/MPG/DAT格式1.2流式视频格式 目前,很多视频数据要求通过Internet来进行实时传输,前面我们曾提及到,视频文件的体积往往比较大,而现有的网络带宽却往往比较“狭窄”,千军万马要过独木桥,其结果当然可想而知。

客观因素限制了视频数据的实时传输和实时播放,于是一种新型的流式视频(Streaming Video)格式应运而生了。

这种流式视频采用一种“边传边播”的方法,即先从服务器上下载一部分视频文件,形成视频流缓冲区后实时播放,同时继续下载,为接下来的播放做好准备。

这种“边传边播”的方法避免了用户必须等待整个文件从Internet上全部下载完毕才能观看的缺点。

到目前为止,Internet上使用较多的流式视频格式主要是以下三种:1)RM(Real Media)格式 RM格式是RealNetworks公司开发的一种新型流式视频文件格式,它麾下共有三员大将:RealAudio、RealVideo和RealFlash。

RealAudio用来传输接近CD音质的音频数据,RealVideo用来传输连续视频数据,而RealFlash则是RealNetworks公司与Macromedia公司新近合作推出的一种高压缩比的动画格式。

RealMedia可以根据网络数据传输速率的不同制定了不同的压缩比率,从而实现在低速率的广域网上进行影像数据的实时传送和实时播放。

这里我们主要介绍RealVideo,它除了可以以普通的视频文件形式播放之外,还可以与RealServer服务器相配合,首先由RealEncoder负责将已有的视频文件实时转换成RealMedia格式,RealServer则负责广播RealMedia视频文件。

在数据传输过程中可以边下载边由RealPlayer播放视频影像,而不必像大多数视频文件那样,必须先下载然后才能播放。

目前,Internet上已有不少网站利用RealVideo技术进行重大事件的实况转播。

2)MOV文件格式(QuickTime) MOV也可以作为一种流文件格式。

QuickTime能够通过Internet提供实时的数字化信息流、工作流与文件回放功能,为了适应这一网络多媒体应用,QuickTime为多种流行的浏览器软件提供了相应的QuickTime Viewer插件(Plug-in),能够在浏览器中实现多媒体数据的实时回放。

该插件的“快速启动(Fast Start)”功能,可以令用户几乎能在发出请求的同时便收看到第一帧视频画面,而且,该插件可以在视频数据下载的同时就开始播放视频图像,用户不需要等到全部下载完毕就能进行欣赏。

此外,QuickTime还提供了自动速率选择功能,当用户通过调用插件来播放QuickTime多媒体文件时,能够自己选择不同的连接速率下载并播放影像,当然,不同的速率对应着不同的图像质量。

此外,QuickTime还采用了一种称为QuickTime VR的虚拟现实(VR,Virtual Reality)技术,用户只需通过鼠标或键盘,就可以观察某一地点周围360度的景象,或者从空间任何角度观察某一物体。

3)ASF(Advanced Streaming Format)格式 Microsoft公司推出的Advanced Streaming Format (ASF,高级流格式),也是一个在Internet上实时传播多媒体的技术标准,Microsoft公司的野心很大,希图用ASF取代QuickTime之类的技术标准。

ASF的主要优点包括:本地或网络回放、可扩充的媒体类型、部件下载、以及扩展性等。

ASF应用的主要部件是NetShow服务器和NetShow播放器。

有独立的编码器将媒体信息编译成ASF流,然后发送到NetShow服务器,再由NetShow服务器将ASF流发送给网络上的所有NetShow播放器,从而实现单路广播或多路广播。

这和Real系统的实时转播则是大同小异。

2常见的视频的编码及封装格式2.1常见视频编码格式常见的编码格式有H.264、H.263、MPEG-1、MPEG-2、MPEG、4、Sorenson Spark、VC-1、JPEG、RV、DivX、On2 True Motion VP6。

对于高清视频来说,主流的编码技术目前主要有 MPEG-2、DivX、XVID、H264/AVC、VC-1、RMVB 和WMV-HD 等等。

其中,H264/AVC、VC-1、MPEG-2是蓝光(Blu-ray Disc)所选择的编码格式,也是目前最流行的高清视频编码格式。

另外就是高清视频的封装格式,封装格式和编码格式是互相区别的,许多人会把它们混淆。

下图为常见编码格式的logo:g s i n t h 图1.1常见编码格式logo1)H264/X264/AVC 编码格式绝大多数视听玩家对于 H264 编码都不会感到陌生,H264 编码的身世显赫,是 ITU-T (国际电信联盟视频编码专家组)与 ISO/IEC (国际标准化组织动态图像专家组)合作组成的 JVT (联合视频组)推动的新一代数字视频编码标准,也称为 MPEG-4/AVC 编码。

H264 编码依托雄厚的背景,在技术上独树一帜,大幅领先于其它编码算法。

X264 编码,是 H264 编码的一个开源分支,它符合 H264 标准,其功能在于编码,而不作为解码器使用,X264 编码最大的特点在于注重实用,它在不明显降低编码性能的前提下,努力降低编码的计算复杂度,X264 对于 H264 编码中的一些复杂编码特性做了折衷处理,其压缩视频体积小于XVID (MPEG-4)编码视频,以小体积、高画质的特点得到了广泛认可。

2)H.263编码格式H.263是国际电联ITU-T 的一个标准草案,是为低码流通信而设计的。

但实际上这个标准可用在很宽的码流范围,而非只用于低码流应用,它在许多应用中可以认为被用于取代H.261。

H.263的编码算法与H.261一样,但做了一些改善和改变,以提高性能和纠错能力。

1998年IUT-T 推出的H.263+是H.263建议的第2版,它提供了12个新的可协商模式和其他特征,进一步提高了压缩编码性能。

如H.263只有5种视频源格式,H.263+允许使用更多的源格式,图像时钟频率也有多种选择,拓宽应用范围;另一重要的改进是可扩展性,它允许多显示率、多速率及多分辨率,增强了视频信息在易误码、易丢包异构网络环境下的传输。

另外,H.263+对H.263中的不受限运动矢量模式进行了改进,加上12个新增的可选模式,不仅提高了编码性能,而且增强了应用的灵活性。

H.263已经基本上取代了H.2613)MPEG-1 编码格式i n g s i n t h e b e i n g a r e 4)MPEG-2 编码格式MPEG-2 编码标准是由 MPEG (Moving Picture Experts Group )工作组发布的视频与音频压缩国际标准。

MPEG-2 编码于 1994 年发布,常用于广播信号(卫星电视、有线电视)的视频和音频编码,经过后期不断修改,不仅成为 DVD 的核心技术,还应用于 HDTV 高清电视传输。

5)MPEG-4 编码格式MPEG4于1998 年11 月公布,原预计1999 年1月投入使用的国际标准MPEG4不仅是针对一定比特率下的视频、音频编码,更加注重多媒体系统的交互性和灵活性。

MPEG-4标准主要应用于视像电话(Video Phone),视像电子邮件(Video Email)和电子新闻(Electronic News)等,其传输速率要求较低,在4800-64000bits/sec 之间,分辨率为176X144。

MPEG-4利用很窄的带宽,通过帧重建技术,压缩和传输数据,以求以最少的数据获得最佳的图像质量。

6)Sorensen Spark 编码格式Sorenson 编解码器可以指三个专有的视频编解码器:Sorenson 视频,Sorenson 视频3或Sorenson Spark 。

Sorenson 视频也被称为Sorenson 视频编解码器,Sorenson 视频量化或SVQ 。

Sorenson Spark 也被称为H.263或FLV1Sorenson (而且有时误为Flash 视频(FLV ),这是以Adobe Flash 容器格式名称命名)。

这两种编解码器的设计由Sorenson 媒体公司。

Sorenson 视频是用在苹果的QuickTime 和Sorenson Spark 在用在Adobe Flash 容器中。

7)VC-1 编码格式WMV (Windows Media Video )作为经久不衰的一种视频编码,一直在不断改进,2003 年,微软基于 WMV 第九版(WMV9)编码技术,正式提出了 VC-1 编码标准,并于 2006 年正式成为国际标准。

VC-1 编码作为较晚推出的高清编码算法,自然吸收了 MPEG-2 与 H264 编码的优点,其压缩比介于 MPEG2 和 H264 之间,编解码复杂性仅有 H264 的一半,即压缩时间更短、解码计算更小,在微软的大力推动下,VC-1 编码已经得到了 BD 蓝光光盘、电影及电视学会(SMPTE )的支持。

近几年来,为了更好的推广 WMV9/VC-1 编码标准,微软不遗余力的建立了 WMV-HD 高清资源站点,大量发布采用 VC-1 编码压制的 720P 、1080P 宣传片及演示片(WMV-HD 视频格式) ,试图营造声势,吸引用户关注。

不过,中庸的技术(与 H264 相比无明显编码优势)、封闭的平台(限于 Windows 系统)、后发的劣势(2006 年通过成为国际标准)仍然给微软 VC-1 编码的应用前景带来了较大的不确定性。

8)JPEG编码格式JPEG 是Joint Photographic Experts Group(联合图像专家小组))的缩写。

JPEG的压缩方式通常是破坏性资料压缩(lossy compression),意即在压缩过程中图像的品质会遭受到可见的破坏,有一种以JPEG为基础的标准Progressive JPEG是采用无失真的压缩方式,但Progressive JPEG并没有受到广泛的支援。

相关文档
最新文档