图像压缩算法论文
高效图像压缩与传输算法研究

高效图像压缩与传输算法研究摘要:随着数字图像的广泛应用,图像的压缩和传输变得越来越重要。
高效的图像压缩和传输算法能够减小图像的存储空间和传输带宽,并且保持图像质量。
本文通过研究不同的图像压缩和传输算法,探讨了它们的优缺点和适用场景。
通过实验比较不同算法的性能,分析出适用于不同应用领域的最佳算法。
本文的研究结果可以为图像压缩和传输算法的实际应用提供指导。
1. 引言在数字化时代,图像的压缩和传输对于各个领域的应用至关重要。
图像压缩技术的目标是在尽可能减小存储空间和传输带宽的同时,保持图像质量。
图像传输算法的目标是将压缩后的图像高效地传输给接收端。
本文将深入研究高效的图像压缩和传输算法。
2. 图像压缩算法2.1 无损压缩算法无损压缩算法是指在压缩图像的过程中不丢失任何图像信息。
其中,著名的算法有Huffman编码、LZW编码等。
这些算法适用于需要精确还原图像的应用,如医学图像传输等。
2.2 有损压缩算法有损压缩算法是指在压缩图像过程中,因为丢弃部分冗余信息,会产生一定的图像质量损失。
常见的有损压缩算法有JPEG、JPEG2000等。
这些算法能够在较小的存储空间和传输带宽消耗下保持较好的图像质量,适用于大部分通用图像传输场景。
3. 图像传输算法3.1 网络传输图像在网络传输过程中,需要考虑带宽利用率和传输速度。
常见的网络传输协议有TCP和UDP。
TCP协议保证数据的可靠性,但传输速度相对较慢;UDP协议传输速度快,但无法保证可靠性。
根据不同的应用场景,我们可以选择合适的网络传输协议。
3.2 流媒体传输流媒体传输是实时传输图像数据的一种方式,常见的应用包括视频会议、在线视频等。
流媒体传输需要保证高帧率和低延迟。
为了提高传输效率,我们可以采用压缩传输策略,例如实时视频解码和流媒体服务器的使用。
4. 性能评估指标为了评估不同算法的性能,我们需要一些指标来进行比较。
常用的指标包括压缩比、峰值信噪比(PSNR)、结构相似性(SSIM)等。
毕业设计论文 图像压缩算法

摘要随着多媒体技术和通讯技术的不断发展, 多媒体娱乐、信息高速公路等不断对信息数据的存储和传输提出了更高的要求, 也给现有的有限带宽以严峻的考验, 特别是具有庞大数据量的数字图像通信, 更难以传输和存储, 极大地制约了图像通信的发展, 因此图像压缩技术受到了越来越多的关注。
图像压缩的目的就是把原来较大的图像用尽量少的字节表示和传输,并且要求复原图像有较好的质量。
利用图像压缩, 可以减轻图像存储和传输的负担, 使图像在网络上实现快速传输和实时处理。
本文主要介绍数字图像处理的发展概况,图像压缩处理的原理和特点,对多种压缩编码方法进行描述和比较,详细讨论了Huffman编码的图像压缩处理的原理和应用。
关键词:图像处理,图像压缩,压缩算法,图像编码,霍夫曼编码AbstractWith the developing of multimedia technology and communication technology, multimedia entertainment, information, information highway have kept on data storage and transmission put forward higher requirements, but also to the limited bandwidth available to a severe test, especially with large data amount of digital image communication, more difficult to transport and storage, greatly restricted the development of image communication, image compression techniques are therefore more and more attention. The purpose of image compression is to exhaust the original image less the larger the bytes and transmission, and requires better quality of reconstructed images. Use of image compression, image storage and transmission can reduce the burden of making the network fast image transfer and real-time processing.This paper mainly introduces the development situation of the digital image processing, the principle and feature of image compression processing , and the variety of compression coding method was described and compared, detailedly discussed the principle and application of compression processing based on HuffmanKeywords: Image Processing,Image Compression,Compression algorithm,Image Coding,Huf.fman目录1.数字图像处理概述 (4)1.1数字图像处理发展概况 (4)1.2数字图像处理主要研究的内容 (5)1.3数字图像处理的基本特点 (6)2.图像压缩 (7)2.1图像压缩技术概述 (7)2.2图像数据压缩原理 (8)2.3.图像压缩编码 (8)2.3.1霍夫曼编码 (9)2.3.2行程编码 (10)2.3.3算术编码 (11)2.3.4预测编码 (11)2.3.5变换编码 (11)2.3.6其他编码 (12)3 哈夫曼编码的图像压缩 (13)3.1需求分析 (13)3.2设计流程图 (14)3.3哈弗曼树的构造 (14)3.4图像压缩的具体实现 (16)3.4.1 Hu ffman压缩类的接口与应用 (16)3.4.2 压缩类的实现 (20)4 运行结果显示及其分析 (27)4.1结果显示: (27)4.2结果分析: (29)总结 (30)参考文献 (31)致谢 (33)1.数字图像处理概述1.1数字图像处理发展概况数字图像处理(Digital Image Processing)又称为计算机图像处理,它是指将图像信号转换成数字信号并利用计算机对其进行处理的过程。
基于深度学习的图像压缩算法研究

基于深度学习的图像压缩算法研究第一章引言随着互联网和数字化技术的不断发展,图像在我们生活中的应用越来越广泛。
在互联网上,我们可以轻松分享和传输图像。
然而,由于图像的数量和大小都不断增加,人们希望能够更高效地压缩图像,降低存储和传输成本。
本文将重点探讨基于深度学习的图像压缩算法,旨在提高图像压缩的质量和速度。
第二章相关工作早期的图像压缩算法主要基于传统的数学理论和统计学方法,如离散余弦变换(DCT)、小波变换、预测编码等。
这些方法在一定程度上可以达到较好的压缩效果,但对于复杂的图像场景,在编码和解码时仍需要大量的时间和计算资源。
近年来,深度学习技术的发展为图像压缩带来了新的思路。
基于深度学习的图像压缩算法主要分为两类:有损压缩和无损压缩。
在有损压缩方面,一些研究人员提出了基于卷积神经网络(CNN)的压缩算法。
在编码器中,CNN可以自动提取图像的特征,并将其转化为通量。
在解码器中,利用反卷积层还原图像信息。
这些算法通常通过模型的训练来学习图像数据的表示和压缩方式。
在无损压缩方面,深度学习方法通常采用自动编码器(Autoencoder)来实现。
自动编码器可以学习到图像的压缩表示,而且可以通过解码器完全恢复原始图像,保证了图像数据的完整性。
此外,与传统的压缩方法相比,自动编码器可以通过训练来适应各种不同的图像场景,从而实现更好的压缩效果。
第三章基于深度学习的图像压缩算法基于卷积神经网络的图像压缩算法在基于卷积神经网络的图像压缩算法中,编码器和解码器都采用了卷积神经网络结构。
如图1所示,编码器包含了多个卷积层和池化层。
池化层用于减小特征图的维度,从而降低计算复杂度。
最后,使用全连接层或者卷积层将特征图压缩成为密集编码,以降低码率。
解码器的结构与编码器相似,主要包括多个反卷积层,用于将压缩的特征图还原成为原始图像。
图1 基于卷积神经网络的图像压缩算法基于自动编码器的图像压缩算法自动编码器通常包括编码器和解码器两部分。
图像压缩算法范文

图像压缩算法范文
1.概述
图像压缩是一种数字处理技术,用于减少图像文件的大小,同时保留
其本身的内容和质量。
它通常用于将高分辨率的彩色图像转换成较小文件
以使其在网络上传输或存储更加方便和高效,同时可以减少存储空间开销。
2.图像压缩算法
2.1无损压缩算法
无损压缩算法是一种无损地压缩图像的算法,它可以在压缩前后保持
原始图像的质量。
无损压缩算法主要有 JPEG2000,JPEG-LS 和 Lossless JPEG等,它们都是基于数据变换(如DCT,DWT)和熵编码(如Huffman
编码,Arithmetic编码)的算法。
JPEG2000是最流行的无损压缩算法之一,它采用像素块编码,并通
过DCT和WVT数据变换,实现较好的无损压缩效果,使得图像文件大小可
以大大减小,但是压缩所需要的时间较长,耗费资源。
JPEG-LS是一种非常有效的无损压缩算法,它采用了图像划分,非线
性差分滤波和补偿等技术,使得图像文件大小得到显著的减小,同时可以
保持其原有质量,并且压缩所耗费的时间较短,是一种性价比比较高的图
像压缩算法。
Lossless JPEG 则采取了更多的适应性编码技术,将原图像的熵编码
进行改进。
带有预测能力的图像压缩算法研究

带有预测能力的图像压缩算法研究随着科技的不断发展,我们已经进入了信息时代。
信息传递的方式也逐渐从文字转变为图像和视频。
因此,图像压缩算法也变得越来越重要。
现在的图像压缩算法主要有JPEG、PNG、GIF等等。
这些算法虽然可以将图片变小并且不影响画质,但是它们并没有考虑到图像的内容特征。
随着机器学习和深度学习的发展,基于内容的图像压缩算法变得越来越流行。
在内容感知的压缩中,一种有预测能力的图像压缩算法被广泛使用。
这种算法可以根据图像中的结构和特征进行预测,来达到更高效的压缩效果。
这个想法的核心是,许多图像的结构和纹理特征在图像中是高度相关的。
因此,我们可以利用这个信息来预测下一个位置的像素值。
这种基于内容的图像压缩技术需要许多步骤。
首先,我们需要对图像进行分析,以了解其结构和内容。
然后,我们可以使用机器学习算法来分析图片的属性,例如颜色和纹理特征。
接下来,我们可以使用这些信息来预测下一个像素的值,并使用这个信息来进行离散余弦变换(DCT)和量化。
最后,我们可以将数据逆量化和离散余弦逆变换,并保存压缩的图像。
在这个过程中,一个关键的问题是,如何确定预测下一个像素的算法。
有两个主要的方法,分别是基于插值的方法和基于分析的方法。
基于插值的方法是一种比较简单的方法,它可以根据已有的像素值求出下一个像素值。
这些方法包括线性插值、双线性插值、三次插值等等。
这些方法可以在压缩过程中提供一些良好的结果,但是它们也有一些局限性。
在图像中存在亮度渐变和发射现象时,基于插值的方法会出现错误的预测结果。
基于分析的方法则更注重图像的特征。
这些方法可以使用深度学习技术对图像进行预测,并根据图像内容构建预测模型。
这种方法可以提供更准确的像素预测,并且可以适应更复杂的图像结构。
需要注意的是,这种方法需要大量的数据集和强大的计算能力。
另外一个值得探索的问题是如何对这些算法进行评价。
一种通常使用的方法是Peak Signal to Noise Ratio(PSNR)。
图像压缩算法的研究

图像压缩算法的研究近年来,随着计算机技术的飞速发展,图像压缩技术在信息处理领域中越来越受到重视。
图像压缩技术可以缩短图像数据传输时间,降低图像传输费用,提高数据传输质量,实现文件的有效存储,减少网络传输带宽。
因此,研究图像压缩算法具有重要的现实意义和应用前景。
本文将从数字图像的基本概念、压缩原理、压缩算法、压缩质量模型四个方面,讨论图像压缩算法的研究现状及其发展趋势。
首先,本文从基本的概念出发,论述数字图像的基本概念,比如图像的分辨率、量化等,以及数字图像的表示形式,比如像素映射、矢量图形等,以及它们之间的关系。
其次,本文论述图像压缩的基本原理,它是通过分析图像信息,提取其中具有代表性的特征,以减少存储的体积与网络传输的带宽来实现的。
它分为无损压缩和有损压缩两种,其中无损压缩在减小存储体积的同时完整保留图像原有信息,而有损压缩在减小存储体积的同时会损失一定的图像信息,其中只有有损压缩可以实现完全无损的压缩。
然后,本文研究压缩算法,压缩算法可以分为统计编码和图像处理算法两大类,其中统计编码算法包括熵编码、差分编码、块编码、矢量量化等,而图像处理算法有游程编码、分块处理、频域处理等。
最后,本文探讨图像压缩质量模型,图像质量模型是衡量压缩图像质量的重要手段。
目前,图像压缩质量模型主要有块信噪比(PSNR)、结构相似性(SSIM)、决定系数(DC)等。
本文讨论了图像压缩算法的基本概念、压缩原理、压缩算法、压缩质量模型四个方面的研究现状及其发展趋势,得出结论:图像压缩技术正在发展迅速,未来将为信息处理领域带来更多的福祉。
同时,在图像压缩方面,仍有许多技术挑战需要解决,比如有效的压缩算法、准确的质量模型等。
综上所述,图像压缩技术可以有效减少图像存储体积和网络传输带宽,实现文件的有效存储和数据传输质量提高,是一种重要的信息处理技术。
在图像压缩方面,仍有许多技术挑战需要解决,以实现更加高效的压缩效果,满足不断发展的应用需求。
基于DCT变换的图像压缩算法

基于DCT变换的图像压缩算法图像处理技术一直是计算机科学的热门领域之一,其中基于DCT变换的图像压缩算法因其高效性和广泛应用而备受关注。
本文将探讨基于DCT变换的图像压缩算法的原理及其在实际应用中的表现。
一、原理概述DCT变换是一种将时域信号转换为频域信号的数学方法,被广泛应用于信号处理和图像压缩中。
在图像处理中,DCT变换被用于将一个N×N的图像块转换为N×N的系数矩阵,其中每个系数表示该图像块在特定空间频率上的响应。
基于DCT变换的图像压缩算法的原理是将图像分为若干个N×N的图像块,然后将每个图像块使用DCT变换转换为系数矩阵。
由于在图像中,高频分量的取值通常较小,而低频分量的取值通常较大,因此使用系数矩阵中的高频分量可以有效地压缩图像数据。
二、实际表现基于DCT变换的图像压缩算法在实际应用中表现良好。
例如,在数字摄像机、移动电话摄像头和医学成像设备中,都广泛采用了基于DCT变换的图像压缩算法。
此外,在图像传输和存储中,也经常使用基于DCT变换的图像压缩算法。
在实际应用中,基于DCT变换的图像压缩算法的主要优点是压缩比高、压缩速度快、重建质量好。
此外,基于DCT变换的图像压缩算法还可以进行可逆压缩和不可逆压缩,具有高容错性和灵活性。
三、应用举例在数字摄像机中,基于DCT变换的图像压缩算法被广泛传播和应用。
数字摄像机通常具有高分辨率和高帧速率的优点,但其生产成本较高。
因此,数字摄像机厂家采用基于DCT变换的图像压缩算法,以在不降低图像质量的情况下降低数据传输量。
在移动电话摄像头中,基于DCT变换的图像压缩算法同样被广泛采用。
由于移动电话摄像头的处理能力和存储能力较低,因此使用基于DCT变换的图像压缩算法有助于节省存储空间和传输带宽。
在医学成像设备中,基于DCT变换的图像压缩算法同样得到了广泛应用。
医学成像设备拍摄出的图像质量要求较高,因此使用基于DCT变换的图像压缩算法可以保证图像质量,同时降低数据传输量。
基于深度学习算法的图像无损压缩技术研究

基于深度学习算法的图像无损压缩技术研究随着数字化时代的到来,影像技术越来越成为人们生活中的必需品。
然而,由于数字图像的文件大小较大,传输和存储成本也越来越高,因此图像压缩技术成为一项热门研究领域。
尤其是在无损压缩方面,一些基于深度学习算法的新技术正在被研究和应用。
本篇文章将探讨基于深度学习算法的图像无损压缩技术研究。
1. 图像压缩技术的基本原理图像压缩技术的基本原理是在尽量减少图像数据而不降低其质量的前提下,有效地减小图像文件的大小。
通常情况下,图像压缩被分为无损压缩和有损压缩两种方式。
有损压缩技术会牺牲图像的质量以减小文件大小,而无损压缩技术则不会降低图像的质量。
本篇文章着重讨论无损压缩技术。
2. 基于深度学习算法的图像无损压缩技术在过去的几十年中,人们开发了许多无损压缩算法,包括熵编码、预测编码、自适应编码等。
然而,这些传统的算法往往需要大量人工设计和优化,并且在压缩效果和压缩速度上也存在瓶颈。
近年来,随着深度学习技术的发展,研究人员开始尝试将深度学习算法应用于图像无损压缩。
基于深度学习算法的图像无损压缩技术主要分为两个阶段:训练阶段和压缩阶段。
在训练阶段,研究人员将大量图像数据输入深度学习网络,以训练模型。
在压缩阶段,输入要压缩的图像,模型将生成高质量的压缩图像。
目前,主流的深度学习算法包括自编码器、卷积神经网络等。
3. 深度学习算法在无损压缩中的优势相比传统的无损压缩算法,基于深度学习算法的图像无损压缩技术具有以下优势:(1)更好的无损压缩效果。
深度学习算法可以学习到图像的更深层次的特征表示,从而提高图像无损压缩效果。
(2)更快的压缩速度。
由于深度学习算法的高效并行计算能力,基于深度学习算法的图像无损压缩技术能够更快地压缩图像。
(3)更好的适应性。
深度学习算法可以根据不同类型的图像自适应地学习其特征表示,从而更好地适应各种场景。
4. 基于深度学习算法的图像无损压缩技术的研究方向目前,基于深度学习算法的图像无损压缩技术的研究方向包括以下几个方面:(1)改进深度学习算法。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
算法论文基于huffman编码的图像压缩技术姓名:康凯学院:计算机学院专业:网络工程1102学号:201126680208摘要随着多媒体技术和通讯技术的不断发展, 多媒体娱乐、信息高速公路等不断对信息数据的存储和传输提出了更高的要求, 也给现有的有限带宽以严峻的考验, 特别是具有庞大数据量的数字图像通信, 更难以传输和存储, 极大地制约了图像通信的发展, 因此图像压缩技术受到了越来越多的关注。
图像压缩的目的就是把原来较大的图像用尽量少的字节表示和传输,并且要求复原图像有较好的质量。
利用图像压缩, 可以减轻图像存储和传输的负担, 使图像在网络上实现快速传输和实时处理。
本文主要介绍数字图像处理的发展概况,图像压缩处理的原理和特点,对多种压缩编码方法进行描述和比较,详细讨论了Huffman编码的图像压缩处理的原理和应用。
关键词:图像处理,图像压缩,压缩算法,图像编码,霍夫曼编码AbstractWith the developing of multimedia technology and communication technology, multimedia entertainment, information, information highway have kept on data storage and transmission put forward higher requirements, but also to the limited bandwidth available to a severe test, especially with large data amount of digital image communication, more difficult to transport and storage, greatly restricted the development of image communication, image compression techniques are therefore more and more attention. The purpose of image compression is to exhaust the original image less the larger the bytes and transmission, and requires better quality ofreconstructed images. Use of image compression, image storage and transmission can reduce the burden of making the network fast image transfer and real-time processing.This paper mainly introduces the development situation of the digital image processing, the principle and feature of image compression processing , and the variety of compression coding method was described and compared, detailedly discussed the principle and application of compression processing based on HuffmanKeywords: Image Processing,Image Compression,Compression algorithm,Image Coding,Huf.fman1.数字图像处理概述1.1数字图像处理发展概况数字图像处理(Digital Image Processing)又称为计算机图像处理,它是指将图像信号转换成数字信号并利用计算机对其进行处理的过程。
数字图像处理最早出现于20世纪50年代,当时的电子计算机已经发展到一定水平,人们开始利用计算机来处理图形和图像信息。
数字图像处理作为一门学科大约形成于20世纪60年代初期。
1在以后的宇航空间技术,如对火星、土星等星球的探测研究中,数字图像处理技术都发挥了巨大的作用。
数字图像处理取得的另一个巨大成就是在医学上获得的成果。
1972年英国EMI 公司工程师Housfield发明了用于头颅诊断的X射线计算机断层摄影装置,也就是我们通常所说的CT(Computer Tomograph)。
CT的基本方法是根据人的头部截面的投影,经计算机处理来重建截面图像,称为图像重建。
1975年EMI公司又成功研制出全身用的CT装置,获得了人体各个部位鲜明清晰的断层图像。
1979年,这项无损伤诊断技术获得了诺贝尔奖,说明它对人类作出了划时代的贡献。
与此同时,图像处理技术在许多应用领域受到广泛重视并取得了重大的开拓性成就,属于这些领域的有航空航天、生物医学工程、工业检测、机器人视觉、公安司法、军事制导、文化艺术等,使图像处理成为一门引人注目、前景远大的新型学科.图像理解虽然在理论方法研究上已取得不小的进展,但它本身是一个比较难的研究领域,存在不少困难,因人类本身对自己的视觉过程还了解甚少,因此计算机视觉是一个有待人们进一步探索的新领域。
1.2数字图像处理主要研究的内容数字图像处理主要研究的内容有以下几个方面:1)图像变换由于图像阵列很大,直接在空间域中进行处理,涉及计算量很大。
因此,往往采用各种图像变换的方法,如傅立叶变换、沃尔什变换、离散余弦变换等间接处理技术,将空间域的处理转换为变换域处理,不仅可减少计算量,而且可获得更有效的处理(如傅立叶变换可在频域中进行数字滤波处理)。
目前新兴研究的小波变换在时域和频域中都具有良好的局部化特性,它在图像处理中也有着广泛而有效的应用。
22)图像编码压缩技术可减少描述图像的数据量(即比特数),以便节省图像传输、处理时间和减少所占用的存储器容量。
压缩可以在不失真的前提下获得,也可以在允许的失真条件下进行。
编码是压缩技术中最重要的方法,它在图像处理技术中是发展最早且比较成熟的技术。
3)图像增强和复原的目的是为了提高图像的质量,如去除噪声,提高图像的清晰度等。
图像增强不考虑图像降质的原因,突出图像中所感兴趣的部分。
如强化图像高频分量,可使图像中物体轮廓清晰,细节明显;如强化低频分量可减少图像中噪声影响。
图像复原要求对图像降质的原因有一定的了解,一般讲应根据降质过程建立"降质模型",再采用某种滤波方法,恢复或重建原来的图像。
4)图像分割是数字图像处理中的关键技术之一。
图像分割是将图像中有意义的特征部分提取出来,其有意义的特征有图像中的边缘、区域等,这是进一步进行图像识别、分析和理解的基础。
虽然目前已研究出不少边缘提取、区域分割的方法,但还没有一种普遍适用于各种图像的有效方法。
因此,对图像分割的研究还在不断深入之中,是目前图像处理中研究的热点之一。
5)图像描述是图像识别和理解的必要前提。
作为最简单的二值图像可采用其几何特性描述物体的特性,一般图像的描述方法采用二维形状描述,它有边界描述和区域描述两类方法。
对于特殊的纹理图像可采用二维纹理特征描述。
随着图像处理研究的深入发展,已经开始进行三维物体描述的研究,提出了体积描述、表面描述、广义圆柱体描述等方法。
6)图像分类(识别)属于模式识别的范畴,其主要内容是图像经过某些预处理(增强、复原、压缩)后,进行图像分割和特征提取,从而进行判决分类。
图像分类常采用经典的模式识别方法,有统计模式分类和句法(结构)模式分类,近年来新发展起来的模糊模式识别和人工神经网络模式分类在图像识别中也越来越受到重视。
2.图像压缩2.1图像数据压缩原理由于图像数据之间存在这一定的冗余,所以使得数据的压缩成为可能。
信息论的创始人Shannon 提出把数据看作是信息和冗余度(redundancy)的组合。
所谓冗余度是由于一副图像的各像素之间存在着很大的相关性,可利用一些编码的方法删去它们,从而达到减少冗余压缩数据的目的。
为了去掉数据中的冗余,常常要考虑信号源的统计特性,或建立信号源的统计模型。
3图像的冗余包括以下几种:●空间冗余:像素点之间的相关性;●时间冗余:活动图像两个连续帧之间的冗余;●信息熵冗余:单位信息量大于其熵;●结构冗余:区域上存在非常强的纹理结构;●知识冗余:有固定的结构,如人的头像;●视觉冗余:某些图像的失真是人眼不易觉察的。
对数字图像进行压缩通常利用两个基本原理:一是数字图像的相关性。
在图像的同一行相邻象素之间,相邻象素之间,活动图像的相邻帧的对应象素之间往往存在很强的相关性,去除或减少这些相关性,也即去除或减少图像信息中的冗余度也就实现了对数字图像的压缩。
帧内象素的相关称做空域相关性。
相邻帧间对应象素之间的相关性称做时域相关性。
二是人的视觉心理特征。
人的视觉对于边缘急剧变化不敏感(视觉掩盖效应),对颜色分辨力弱,利用这些特征可以在相应部分适当降低编码精度而使人从视觉上并不感觉到图像质量的下降,从而达到对数字图像压缩的目的。
2.2霍夫曼编码Huffman编码在无损压缩的编码方法中,它是一种有效的编码方法。
它是霍夫曼博士在1952 年根据可变长最佳编码定理提出的。
依据信源数据中各信号出现的频率分配不同长度的编码。
其基本思想是在编码过程中,对出现频率越高的值,分配越短的编码长度,相应地对出现频率越低的值则分配较长的编码长度,它是一种无损编码方法。
采用霍夫曼编码方法的实质是针对统计结果对字符本身重新编码,而不是对重复字符或重复子串编码,得到的单位像素的比特数最接近图像的实际熵值。
例如,在英文中,e的出现概率很高,而z的出现概率则最低。
当利用哈夫曼编码对一篇英文进行压缩时,e极有可能用一个位(bit)来表示,而z则可能花去25个位(不是26)。
用普通的表示方法时,每个英文字母均占用一个字节(byte),即8个位。
二者相比,e使用了一般编码的1/8的长度,z则使用了3倍多。
倘若我们能实现对于英文中各个字母出现概率的较准确的估算,就可以大幅度提高无损压缩的比例。
例如:假设信源符号为【a、b、c、d、e、f、g】,其出现的概率相应的为【0.25、0.025、0.025、0.05、0.35、0.25、0.05】,一共7个字符,对其进行huffman 编码,算法如下:首先按照每个字符出现的频率大小从左到右排列:0.35、0.25、0.25、0.05、0.05、0.025、0.025;选出最小的两个值作为叶子节点构成一棵二叉树,值较大的叶子节点在左,两个叶子节点对应的频率之和作为根节点。