第四章:无失真信源编码
信号理论与编码:无失真信源编码

实验一无失真信源编码一、实验目的与要求1. 理解并掌握无失真信源编码定理的内容及支撑理论;2. 掌握唯一可译码的含义及判断方法;3. 掌握赫夫曼码的数学基础、编码原理与实现技术;4. 掌握二进制、三进制赫夫曼码的编码方法与结果分析;5. 基于Visual C++环境使用面向对象方法设计赫夫曼编码软件。
二、实验仪器与设备1. 微型电子计算机80台2. Windows 2000以上版本操作系统80套3. Visual C++ 6.0开发系统80套三、实验内容与步骤(一)二进制赫夫曼编码使用以下两种不同的方法编写二进制赫夫曼码:·信源合并后的新符号排在其它相同概率的符号的前面;·合并后的新符号排在其它相同概率的符号的后面。
具体要求:1.使用Visual C++6.0开发环境,应用面向对象的程序设计模式,编写CHuffman_2类,并根据具体要求,添加必须的数据成员和成员函数;2.分别求出两种编码方法下的平均码长、信息率和编码效率,并分析实际中应选择哪种编码方法;3.添加成员函数IsUniDecodableCdoe(),以判断赫夫曼码是否唯一可译码;4.添加成员函数IsCodingwithoutDistoryion(),以判断赫夫曼码是否满足无失真编码定理;5.用户可以随机输入多个心愿符号信息,并在主函数中至少测试两组数据,并显示有关结果信息。
(二)三进制赫夫曼编码与上述步骤类似,设计CHuffman_3类,编写三进制赫夫曼码。
要求使用相同的测试数据,并比较平均码长、信息率及编码效率等,给出自己的思考结论。
(三)m进制赫夫曼编码设计CHuffman_m类,编写m进制赫夫曼码。
m在运行时由用户输入。
其它要求同上。
综合实验代码及分析:#include <iostream.h>#include <math.h>#include <string.h>#include <stdio.h>#include <stdlib.h>#include <vector>using namespace std;#define MAX 10 //输入进制,最多10进制struct Huffman_InformationSource //信源类型{char InformationSign[10]; //信源符号double Probability; //概率char Code[20]; //编码结果int CodeLength; //码长};struct HuffNode //赫夫曼树的节点类型{char InformationSign[10];double Probability;HuffNode *Subtree[MAX]; //子树HuffNode *Next;char Code[20];int CodeLength;};class CHuffman_m //赫夫曼编码{public:CHuffman_m(int M) //初始化{m=M;ISNumber=0;AvageCodeLength=0.0;InformationRate=0.0;CodeEfficiency=0.0;}~CHuffman_m(){// DestroyBTree(HuffTree);}void Huffman_Input(); //输入信息void Huffman_Sort(); //排序void Huffman_Tree(); //构造赫夫曼树void Huffman_Coding(); //生成赫夫曼编码void Huffman_CodeAnalyzing(); //结果分析void Huffman_Display(); //显示结果信息void DestroyBTree(HuffNode *TreePointer); //释放资源private:vector<Huffman_InformationSource>ISarray; //声明ISarray数组,初始时为空int ISNumber; //符号个数double AvageCodeLength; //平均码长double InformationRate; //信息率double CodeEfficiency; //编码效率int m; // m 进制HuffNode * HuffTree; //赫夫曼树private:void Huffman_Code(HuffNode *TreePointer);}; //输入信源信息void CHuffman_m::Huffman_Input(){ int n,i,j;double sum=0;cout<<"请输入信源符号个数: ";cin>>n;cout<<"请信源符号和概率: "<<endl;for(i=0;i<n;i++){Huffman_InformationSource temp;cin>>rmationSign;cin>>temp.Probability;strcpy(temp.Code,"");temp.CodeLength=0;ISarray.push_back(temp);ISNumber=ISarray.size();}for(j=0;j<ISarray.size();j++)sum+=ISarray[j].Probability;if(sum==1)return;else{cout<<"\a\a\a概率和不为1!请重新输入"<<endl;ISarray.clear();CHuffman_m::Huffman_Input();}}//按概率"从大到小"排序:void CHuffman_m::Huffman_Sort(){Huffman_InformationSource temp;int i,j;for(i=0;i<ISNumber-1;i++)for(j=i+1;j<ISNumber;j++)if(ISarray[i].Probability<ISarray[j].Probability){temp=ISarray[i];ISarray[i]=ISarray[j];ISarray[j]=temp;}}//基于ISarray数组构造赫夫曼树void CHuffman_m::Huffman_Tree(){int i,j;HuffNode *ptr1,*ptr2;//(1):基于数组,创建单向链表ptr1=new HuffNode;strcpy(ptr1->InformationSign,ISarray[0].InformationSign);ptr1->Probability=ISarray[0].Probability;strcpy(ptr1->Code,ISarray[0].Code);for(j=0;j<m;j++) //初始化子树ptr1->Subtree[j] =NULL;ptr1->Next=NULL;HuffTree=ptr1; //赋给数据成员HuffTreefor(i=1;i<ISNumber;i++){ptr2=new HuffNode;strcpy(ptr2->InformationSign,ISarray[i].InformationSign);ptr2->Probability=ISarray[i].Probability;strcpy(ptr2->Code,ISarray[i].Code);for(j=0;j<m;j++) //初始化子树ptr2->Subtree[j] =NULL;ptr2->Next=ptr1;ptr1=ptr2;}//结果:链表的表头为数组的最小元素。
信息论常用无失真信源编码设计(含MATLAB程序)

《信息论基础》题目:常用无失真信源编码程序设计目录1. 引言 (2)2. 香农编码 (2)2.1 编码步骤 (3)2.2 程序设计 (3)2.3 运行结果 (3)3. 费诺编码 (4)3.1 编码步骤 (5)3.2 程序设计 (5)3.3 运行结果 (5)4. 哈夫曼编码 (6)4.1 编码步骤 (7)4.2 程序设计 (7)4.3 运行结果 (8)5. 结论 (9)6. 参考文献 (10)7. 附录 (11)7.1 香农编码Matlab程序 (11)7.2 费诺编码Matlab程序 (12)7.3 哈夫曼编码Matlab程序 (14)1. 引言信息论(Information Theory)是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。
信息系统就是广义的通信系统,泛指某种信息从一处传送到另一处所需的全部设备所构成的系统。
信息论是关于信息的理论,应有自己明确的研究对象和适用范围[1]。
信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。
信息传输和信息压缩是信息论研究中的两大领域。
这两个方面又由信息传输定理、信源-信道隔离定理相互联系。
信源编码是一种以提高通信有效性为目的而对信源符号进行的变换,或者说为了减少或消除信源冗余度而进行的信源符号变换。
具体说,就是针对信源输出符号序列的统计特性来寻找某种方法,把信源输出符号序列变换为最短的码字序列,使后者的各码元所载荷的平均信息量最大,同时又能保证无失真地恢复原来的符号序列[2]。
在通信中,传送信源信息只需要具有信源极限熵大小的信息率,但在实际的通信系统中用来传送信息的信息率远大于信源极限熵。
为了能够得到或接近信源熵的最小信息率,必须解决编码的问题,而编码分为信源编码和信道编码,其中的信源编码又分为无失真信源编码和限失真信源编码。
由于无失真信源编码只适用于离散信源,所以本次作业讨论无失真离散信源的三种简单编码,即香农(Shannon)编码、费诺(Fano) 编码和哈夫曼(Huffman) 编码[3]。
无失真的信源编码

[例]有一单符号离散无记忆信源
对该信源编二进制香农码。其编码过程如表所示。 二进制香农编码
xi x1 x2 x3 x4 x5 x6 p(xi) 0.25 0.25 0.20 0.15 0.10 0.05 pa(xj) 0.000 0.250 0.500 0.700 0.85 0.95 ki 2 2 3 3 4 5 码字 00 01 100 101 1101 11110 0.000 =(0.000)2 0.250 =(0.010)2 0.500 =(0.100)2 0.700 =(0.101)2 0.85 =(0.1101)2 0.95 =(0.11110)2
7/13/2013 4/31
信源编码概述
信源的原始信号绝大多数是模拟信号,因此,信源编码的 第一个任务是模拟和数字的变换,即:A/D,D/A。 抽样率取决于原始信号的带宽:fc = 2 w,w为信号带宽。 抽样点的比特数取决于经编译码后的信号质量要求: SNR = 6 L(dB),L为量化位数 但是,由于传输信道带宽的限制,又由于原始信源的信号 具有很强的相关性,则信源编码不是简单的A/D,D/A, 而是要进行压缩。为通信传输而进行信源编码,主要就是 压缩编码。 信源编码要考虑的因素:
只含(n-2)个符号的缩减信源S2。
重复上述步骤,直至缩减信源只剩两个符号为止,此时所剩两个符 号的概率之和必为1。然后从最后一级缩减信源开始,依编码路径向
前返回,就得到各信源符号所对应的码字。
7/13/2013 16/31
[例] 设单符号离散无记忆信源如下,要求对信源编二进制哈夫曼码。
7/13/2013
7/13/2013
2/31
信源编码:提高通信有效性。通常通过压缩信源的
(完整word版)西安电子科技大学信息论与编码理论讲义

《信息论》讲义204教研室2005年11月主要内容:第一章绪论第二章离散信源及其信息测度第三章离散信道及其信道容量第四章无失真信源编码第五章有噪信道编码第一章 绪论信息论——人们在长期通信工程的实践中,由通信技术与概率论、随机过程和数理统计相结合而逐步发展起来的一门学科。
奠基人——香农1948年发表了著名的论文——《通信的数学理论》,为信息论奠定了理论基础。
1.1 信息的概念人类离不开信息,信息的接收、传递、处理和利用时时刻刻都在发生。
如:“结绳记事”、“烽火告警”,信息的重要性是不言而喻的。
什么是信息?——信息论中最基本、最重要的概念。
信息与“消息”、“情报”、“知识”、“情况”等的区别:“情报”——人们对于某个特定对象所见、所闻、所理解而产生的知识。
是一类特定的信息。
“知识”——人们根据某种目的,从自然界收集得来的数据中,整理、概括、提取得到的有价值的、人们所需的信息。
是一种具有普遍和概括性质的高层次的信息。
“消息”——以文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,表达客观物质运动和主观思维活动的状态。
消息包含信息,是信息的载体。
二者既有区别又有联系。
“信号”——消息的运载工具。
香农从研究通信系统传输的实质出发,对信息作了科学的定义,并进行了定性和定量的描述。
收信者:收到消息前,发送者发送的消息——1、描述的是何种事物运动状态的具体消息;2、描述的是这种消息还是那种消息;3、若存在干扰,所得消息是否正确与可靠。
存在“不知”、“不确定”或“疑问”收到消息后,知道消息的具体内容,原先的“不知”、“不确定”或“疑问”消除或部分消除了。
消息传递过程——从不知到知的过程;从知之甚少到知之甚多的过程;从不确定到部分确定或全部确定的过程。
通信过程——消除不确定性的过程。
不确定性的消除,就获得了信息。
若原先不确定性全部消除了,就获得了全部的消息;若消除了部分不确定性,就获得了部分信息;若原先不确定性没有任何消除,就没有获得任何消息。
第四章 有限失真信源编码

消息
R=C;PE=0,
压缩冗余度
§4.1:概述-3
有噪信道编码定理回顾:
只要R<C,总可以找到一种信道编码方法,使在信 道上能够以尽可能小的PE传输信息。
消息
信 源 编 码
信 道 编 码
信道
R< C; PE=ε,
增加冗余度,最好地匹配信 道特性
§4.1:概述-4
第四章限失真信源编码
简介:和无失真编码比较,(失真和熵率 值比较)熵压缩编码在的允许失真条件下, 编码后的熵率压缩到最小(无译码器) (解释两种编码的必要性) 信息速率失真函数R(D): 是熵压缩编码的基础,把信息和失真两个度 量可联系在一起,为信号处理中同时考虑 两个因素提供可解。
引入限失真的必要性
j=1~s) 信源的失真矩阵可表示为: d (u1 , v1 ).......d (u1 , vs ) . D . d (ur , v1 ).......d (ur , vs ) 共r×s个元素
§4.2:失真的度量-5
平均失真度
平均失真度:
∵U,V是随机变量;∴ d(ui,vj)也是随机变量 平均失真度:
本章节讨论顺序
从最简单的离散无记忆信源入手 讨论失真的度量 讨论率失真函数的定义和性质 讨论在最简单的二进制对称离散信源和高斯连续信 源条件下率失真函数R(D)的计算方法 讨论限失真信源编码定理 信息率失真理论的探讨及应用举例 香农三大定理的关系和比较
§4.2:失真的度量-1
§4.2:失真的度量-8
平均失真度
信源平均失真度 1 DN N D (N )
信息论与编码习题答案-曹雪虹

3-14
信源 符号 xi x1 x2 x3 x4 x5 x6 x7
符号概 率 pi 1/3 1/3 1/9 1/9 1/27 1/27 1/27 1/3 1/3 1/9 1/9 2/27 1/27 1/3 1/3 1/9 1/9 1/9
编码过程
编码 1/3 1/3 1/3 2/3 1/3 00 01 100 101 111 1100 1101
得p0p1p223当p0或p1时信源熵为0第三章无失真信源编码31321因为abcd四个字母每个字母用两个码每个码为05ms所以每个字母用10ms当信源等概率分布时信源熵为hxlog42平均信息传递速率为2信源熵为hx0198bitms198bitsbitms200bits33与上题相同351hu12log2?14log4?18log8?116log16?132log32?164log64?1128log128?1128log128?1984111111112481632641281282每个信源使用3个二进制符号出现0的次数为出现1的次数为p0p134相应的香农编码信源符号xix1x2x3x4x5x6x7x8符号概率pi12141811613216411281128累加概率pi00507508750938096909840992logpxi12345677码长ki12345677码字010110111011110111110111111011111110相应的费诺码信源符号概符号xi率pix1x2x3x4x5x6x7x812141811613216411281128111第一次分组0第二次分组0第三次分组0第四次分组0第五次分组011第六次分组01第七次分组01二元码0101101110111101111101111110111111105香农码和费诺码相同平均码长为编码效率为
信息论与编码第4章无失真信源编码

0
2
1
w1 0 1 2 0 1 2
01
2w2
w3 w4
0
1
2
w5
w6 w7 w8
w9 w10 w11
0级节点 1级节点 2级节点
3级节点
25
4.3 变长编码
码树编码方法
(1)树根编码的起点; (2)每一个中间节点树枝的个数编码的进制数; (3)树的节点编码或编码的一部分; (4)树的终止节点(端点、树叶)码; (5)树的节数码长; (6)码位于多级节点变长码; (7)码位于同一级节点码等长码;
设离散无记忆信源X的熵为H(X), 若对长为N的信源符号序 列进行等长编码,码长为L , 码元符号个数为m. 则对任意的
>0, >0, 只要
L log m H ( 率小于。
反之,当
L log m H ( X ) 2
N
时, 则译码差错概率一定是有限值(不可能实现无失真编 码), 而当N足够大时, 译码错误概率近似等于1。
概率分布 0.5 0.25 0.125 0.125
码1:C1 码2:C2 码3:C3
00
0
0
码4:C4 1
码5:C5 1
01
11
10
10
01
10
00
00
100
001
11
11
01
1000
0001
等长码 非唯一 非 唯 唯一可译 及时码 可译 一可译
11
4.1 无失真信源编码的概念
关系 即时码一定是唯一可译码 唯一可译码一定是非奇异码 定长的非奇异码一定是唯一可译码 非定长的非奇异码不一定是唯一可译码
一般地,平均码长: L 3.322 (N ) N
第四章习题答案

第4章习题4-1 对信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡01.010.015.017.018.019.02.0s s s s s s s P S 7654321进行二元编码,编码方案为(1)计算平均码长L ; (2)编码后信息传输率R ;(3)编码信息率R '; (4)编码效率η。
解:(1)()14.3Ls p L iq1i i=⋅=∑=(码元/信源符号)(2)()61.2S H =(比特/信源符号)()831.014.361.2L S ===H R (bit/码元) (3)logr L R ='=3.14( bit/信源符号) (4)831.0R Rmax==η 或者()831.0R S H ='=η 4-2 设离散无记忆信源的概率空间为⎥⎥⎦⎤⎢⎢⎣⎡=⎥⎦⎤⎢⎣⎡4143s s S 21P ,若对信源采取等长二元编码,要求编码效率96.0=η,允许译码错误概率510-≤δ,试计算需要的信源序列长度N 为多少?解:信源熵为()811034log 434log 41S .Η=+=(bit/符号)自信息量的方差()()()[]22i q1i i 2S H logp p S -=∑=σ4715.0811.041log 4143log 43222=-⎪⎭⎫⎝⎛+⎪⎭⎫ ⎝⎛= 因为编码效率96.0=η,由()()ε+=S S H H η可得()3379.0811.096.004.0S H 1=⨯=-=ηηε 可得()752221013.4103379.04715.0S N ⨯=⨯=≥-δεσ 所以,信源序列长度达到71013.4⨯以上,才能实现给定的要求,因此等长编码没有实际的意义,一般统计编码都是采用不等长编码。
4-6设离散无记忆信源的概率空间为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡1.09.0s s S 21P ,对信源进行N 次扩展,采用霍夫曼编码。
当N=1,2,∞时的平均码长和编码效率为多少?解:(1)N=1时,将1s 编成0,2s 编成1,则1L 1=又因为信源熵()469.0))logp(s p(s S H q1i i i =-=∑=bit/符号所以()469.0L S H 11==η (2)N=2时,编码过程如下2S概率 霍夫曼编码11s s 0.81121s s 0.09 01 12s s 0.09 000 22s s 0.01001所以()=+⨯+⨯+⨯=0.090.0130.0920.811L 2则645.02L 2= 所以()==0.645X H 2η (3)N=∞时,由香农第一定理可知,必然存在唯一可译码,使()S H N L limr NN =∞→而霍夫曼编码为最佳码,即平均码长最短的码,故()()469.0S H S H N L limr NN ===∞→即1lim N N =∞→η4-7已知信源共7个符号消息,其概率空间为()⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡01.010.015.017.018.019.02.0s s s s s s s x P S 7654321试进行香农编码。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
ε
ε
ε
ε
L[ H (S )+ε ] GL ε ξ= L <2 n nL
=2
−L[ logn−H (S )−ε ]
logn−H (S )−ε >0
① Lim p( A ) =1 ε L→ ∞
信源序列集合S
② H(P , P ,LPL ) →H(P LP ε ) 1 2 1 M n
信源熵
Aε
③ P = L= P ε = 1/ Mε 1 M
大概率事件熵
Aε
• 对于 A 有性质: 有性质 ε Lim p( A ) = 0 ε L→ ∞
由此可见, 由此可见,信源编码只需对信源中少数落入典型大概率事件的集合的符 号进行编码即可。 号进行编码即可。而对大多数属于非典型小概率事件集合中的信源符号 无需编码. 无需编码
H∞ ≅ 1.4bit
§4.2定长编码定理-4-进一步理解 4.2定长编码定理 定长编码定理-
解决方法: 解决方法:
考察: 字母个数为n 字母之间相关长度为L的英文信源, 考察: 字母个数为n,字母之间相关长度为L的英文信源,其可能的字母序列 但其中大部分字母序列是无意义的字母组合,而且随着L 总数为 L ;但其中大部分字母序列是无意义的字母组合,而且随着L n 的增加,这种无意义序列的总数越来越大。 的增加,这种无意义序列的总数越来越大。 进行联合编码,即对字母序列编码, 进行联合编码,即对字母序列编码,且只对哪些有意义的字母序列 方法: 方法: 编码,即需编码的字母序列的总数<< nL ,则平均每个信源符号所 编码,即需编码的字母序列的总数 则平均每个信源符号所 需的码符号个数可以大大减少,从而提高了传输效率。 需的码符号个数可以大大减少,从而提高了传输效率。 !!但当 足够长后, 问题: 会引入一定的误差!!但当L足够长后 误差可以任意小。 问题: 会引入一定的误差!!但当 足够长后,误差可以任意小。
L[H(S)−ε ]
A 中所有 ε ε
≤|| Aε ||≤ 2
L[H (S)+ε ]
典型序列的集合
集合中序列的个数 || Aε || 表示 A 集合中序列的个数 ε
§4.2定长编码定理-7 - AEP证明 4.2定长编码定理 定长编码定理- AEP证明
• 还可以证明:对于任意小的正数 还可以证明:
渐进等分割定理: (熵定理,遍历性定理) 渐进等分割定理: 熵定理,遍历性定理)
离散无记忆信源输出的一个特定序列 输出的一个特定序列, 设 s = s1s2...sL 是离散无记忆信源输出的一个特定序列,则任给 δ > 0 和 ε > 0,总可以找到一个整数 L0 ,使当
L≥ L0 时,有:
特定序列的平均符号自信息
ε ≥ 0 , SL
足够大时, ,当L足够大时, 足够大时
2
−L[H(S)+ε ]
< P(αi ) < 2
−L[H(S )−ε ]
P(αi ) 表示序列αi ∈ Aε 出现的概率 出现的概率
由切比雪夫不等式可得: 由切比雪夫不等式可得:
P(Aε ) ≥1−
σ2 Lε
表示S中每个符号携带的信息量的方差 σ 2 表示 中每个符号携带的信息量的方差
为实现有效: 为实现有效:log n ⇒ H(S) + ε 等长有效性的无失真编码的条件: 等长有效性的无失真编码的条件:
考虑信源统计特性
K≥
K L
H( S)+ε logm
L
码长下限: 码长下限: 误码率任意小的方向:? 误码率任意小的方向:
L →∞
≥
H( S)+ε logm
⇒ K log m ≥ L(H(S) + ε )
考虑信源的实际统计特性(非等概),实际消息熵为: 考虑信源的实际统计特性(非等概),实际消息熵为: ),实际消息熵为
H(S) = −∑pi log pi
i
代入无失真条件得: 代入无失真条件得:
K L
≥
H (S ) logm
• 结论 结论:即使m=n,只要
就有可能实现K<L。 即无失真与有效性同时满足。
(前提:不考虑信源统计特性) 前提:不考虑信源统计特性 前提
K
L K 无失真: 无失真: n ≤ m
n →m
L
相互矛盾! 相互矛盾!
消 数→码 数 息 字
有效: nL ≥ mK 有效:
K log n n ≤m ⇒ ≥ L log m
L K
无失真条件变换
结论: 不有效。 结论:①当 n = m 时,K≥L 不有效。
符号集大小为m
Sl 取值于同一个符号集,
总组合数:n
L
Ck 取值于同一个符号集,
m 总码组合数:
K
§4.1无失真编码概述-2 4.1无失真编码概述-2
• 问题:能否进行无失真编码 怎样进行无失真编码 问题: 能否进行无失真编码?怎样进行无失真编码? 进行无失真编码 怎样进行无失真编码 • 应满足条件 应满足条件:
§4.2定长编码定理-2-进一步理解 4.2定长编码定理 定长编码定理-
• 若要求所得的等长码是唯一可译的,则必须: 若要求所得的等长码是唯一可译的,则必须:
K log n n ≤m ⇒ ≥ L log m log n 若L=1,则: ≥ = , K log m
L K
结论:对于唯一可译码, 结论:对于唯一可译码,每个信源符号至少需要用 个码符号来变换。 个码符号来变换。
log n log m
L=1 K 当采用二元码编码时, = , 当采用二元码编码时,m=2,则: ≥ log n⇒K ≥ log n(bit) L
结论:对信源进行二元等长编码时, 结论:对信源进行二元等长编码时,每个信源符号所需码 长的极限值为 log n(bit)
§4.2定长编码定理-2-进一步理解 4.2定长编码定理-2
②当K = L 时,m≥n,亦不满足有效性 ,
解决办法: 引入信源统计特性。 解决办法: 引入信源统计特性。
§4.1无失真编码概述-3 4.1无失真编码概述-3
• 考察无失真条件 考察无失真条件:
K log n n ≤m ⇒ ≥ L log m
L K
等概条件下的消息符号熵 等概
Hale Waihona Puke 等概条件下的码字符号熵 等概
然,这两个序列不等概, 当L→ 这两个序列不等概
有一些序列1出现的次数接 ∞ 时,有一些序列 出现的次数接
pLpqL−Lp= -LH(S) 2
近Lp,这些序列的概率为 , 分布。 分布。
• L长的序列
且这些序列近似等概
s1s2 LsL
,对于任意小的正数
的序列称为
ε 典型序列
ε > 0 满足式 - P(s) log - ∞(S) < ε H L
§4.2定长编码定理-8 - AEP举例 4.2定长编码定理 定长编码定理- AEP举例
• 例2 统计独立L长的序列 统计独立 长的序列: s∈{01 p(1)=p,p(0)=q,统计独立 长的序列 s1s2 LsL , }
5 3 和序列011100101 的概率为 p4q4和 p q 显 当L=8时,序列 = 时 序列11000101和序列 和序列
σ 2 = E 2 {I ( si ) − E[ I ( si )]}
= E{I 2 ( si ) − 2 I ( si ) • E[ I ( si )] + E 2 [ I ( si )]} = E [ I 2 ( si )] − E 2 [ I ( si )]
= ∑ p ( si ) I 2 ( si ) − H 2 ( S ) = ∑ p ( si )[ − log p ( si )]2 − H 2 ( S )
P{|
logP(s) L
+H∞(S) |< δ} >1−ε
随机矢量的平均符号熵
§4.2定长编码定理-6- AEP物理意义 AEP物理意义
任何一个离散随机序列信源当序列长度L→∞时,信源序列会产 时 信源序列会产 任何一个离散随机序列信源当序列长度 两极分化.小概率事件集合 生两极分化 小概率事件集合 Aε 与大概率事件集合 Aε ,即nL= A ∪ A 即 ε ε • 对于 A 有性质 有性质: L ε
log m> H(S)
具体实现方法:定长与变长编码 具体实现方法 定长与变长编码
§4.2定长编码定理-1-描述 4.2定长编码定理-1
定长(等长)码信源编码定理:nL → mK 定长(等长)码信源编码定理:
对离散,无记忆、平稳、遍历信源其符号序列: 对离散,无记忆、平稳、遍历信源其符号序列:S =(S1S2 …..SL), , 可用K个符号 个符号C 进行等长编码,对任意ε>0,δ>0, 可用 个符号 =(C1C2…CK) 进行等长编码,对任意 , 只要满足: 只要满足: H( S)+ε K K
§4.2定长编码定理-5-证明 4.2定长编码定理 定长编码定理-
引入:渐进等分割性(AEP: Asymptotic Equipartition Property ) 引入:渐进等分割性(
• 考察离散、随机序列信源的统计特性 考察离散、 --渐进等分割性( --渐进等分割性(AEP) 渐进等分割性 ) • AEP描述: 描述: 描述
第四章:无失真信源编码
无失真信源编码
• • • • 无失真编码概述 定长信源编码 变长信源编码 实用的无失真信源编码方法举例
§4.1无失真编码概述-1 4.1无失真编码概述-1
离散、无失真、无记忆信源编码的一般模型 模型: 模型
入
S = (S1…SL )
符号集大小为n
信源 编码
出