信源编码(数据压缩)课程课后题与答案(第二章)

合集下载

信息论编码与基础课后题(第二章)

信息论编码与基础课后题(第二章)

第二章习题解答2-1、试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍? 解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量symbol bit n X H / 24log log )(1=== 八进制脉冲的平均信息量symbol bit n X H / 38log log )(2=== 二进制脉冲的平均信息量symbol bit n X H / 12log log )(0===所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。

2、 设某班学生在一次考试中获优(A )、良(B )、中(C )、及格(D )和不及格(E )的人数相等。

当教师通知某甲:“你没有不及格”,甲获得了多少比特信息?为确定自己的成绩,甲还需要多少信息? 解:根据题意,“没有不及格”或“pass”的概率为54511pass =-=P 因此当教师通知某甲“没有不及格”后,甲获得信息在已知“pass”后,成绩为“优”(A ),“良”(B ),“中”(C )和“及格”(D ) 的概率相同:41score )pass |()pass |()pass |()pass |(=====D P C P B P A P P 为确定自己的成绩,甲还需信息bits 241loglog score score =-=-=P I 3、中国国家标准局所规定的二级汉字共6763个。

设每字使用的频度相等,求一个汉字所含的信息量。

设每个汉字用一个1616⨯的二元点阵显示,试计算显示方阵所能表示的最大信息。

显示方阵的利用率是多少?解:由于每个汉字的使用频度相同,它们有相同的出现概率,即67631=P 因此每个汉字所含的信息量为bits 7.1267631loglog =-=-=P I 字每个显示方阵能显示256161622=⨯种不同的状态,等概分布时信息墒最大,所以一个显示方阵所能显示的最大信息量是bits322.054log log passpass =-=-=P Ibits 25621loglog =-=-=P I 阵显示方阵的利用率或显示效率为0497.02567.12===阵字I I η 4、两个信源1S 和2S 均有两种输出:1 ,0=X 和1 ,0=Y ,概率分别为2/110==X X P P ,4/10=Y P ,4/31=Y P 。

信息论与编码第二章课后习题答案

信息论与编码第二章课后习题答案

因此,必须称的次数为
因此,至少需称 3 次。
I1 = log 24 ≈ 2.9 次 I 2 log 3
【延伸】如何测量?分 3 堆,每堆 4 枚,经过 3 次测量能否测出哪一枚为假币。
【2.2】同时扔一对均匀的骰子,当得知“两骰子面朝上点数之和为 2”或“面朝上点数之
和为 8”或“两骰子面朝上点数是 3 和 4”时,试问这三种情况分别获得多少信息量?
= − p1 log p1 − p2 log p2 − K − pL−1 log pL−1 − pL log pL + pL log pL
− q1 log q1 − q2 log q2 − K − qm log qm
= − p1 log p1 − p2 log p2 − K − pL−1 log pL−1 − pL log pL + (q1 + q2 + q3 + L + qm ) log pL
H ( X ) − H (X ′) = ( p1 − ε ) log( p1 − ε ) + ( p2 + ε ) log( p2 + ε ) − p1 log p1 − p2 log p2

f
(x)
=
( p1

x) log( p1

x) +
( p2
+
x) log( p2
+
x)

x ∈ 0,
A
已落入,B
落入的格可能有
47
个,条件概率
P(b j
|
ai )
均为
1 47
。平均自信息量为
48 47
∑ ∑ H (B | A) = −

信息编码习题答案或提示

信息编码习题答案或提示

第二章部分习题2.1 试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?答:2倍,3倍。

2.2 一副充分洗乱了的牌(含52张牌),试问 (1) 任一特定排列所给出的信息量是多少?(2) 若从中抽取13张牌,所给出的点数都不相同, 能得到多少信息量?解:(1) !52log 2 (2) 任取13张,各点数不同的概率为1352!13C ,信息量:9.4793(比特/符号)2.3 居住某地区的女孩子有%25是大学生,在女大学生中有75%是身高160厘米上的,而女孩子中身高160厘米以上的占总数的一半。

假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量? 答案:1.415比特/符号。

提示:设事件A 表示女大学生,事件C 表示160CM 以上的女孩,则问题就是求p(A|C),83214341)()|()()()()|(=⨯===C p A C p A p C p AC p C A p2.4 设离散无忆信源()123401233/81/41/41/8X a a a a P X ====⎛⎫⎧⎫=⎨⎬ ⎪⎩⎭⎝⎭,其发出的消息为(2021201302130012032101103210100223210),求(1) 此消息的自信息量是多少?(2) 在此消息中平均每个符号携带的信息量是多少?解:(1)87.81比特,(2)1.951比特。

提示:先计算此消息出现的概率,再用自信息量除以此消息包含的符号总数(共45个)。

2.5 从大量统计资料知道,男性中红绿色盲的发病率为7% ,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含有多少信息量?平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量是多少?(1) 男性回答是的信息量为2log 0.07 3.8369-=比特,回答否的信息量是0.1047比特,平均每个回答含的信息量(即熵)是0.36596比特。

信息论与编码理论第二章习题答案(王育民)

信息论与编码理论第二章习题答案(王育民)

部分答案,仅供参考。

2.1信息速率是指平均每秒传输的信息量点和划出现的信息量分别为3log ,23log ,一秒钟点和划出现的次数平均为415314.0322.01=⨯+⨯一秒钟点和划分别出现的次数平均为45.410那么根据两者出现的次数,可以计算一秒钟其信息量平均为253log 4153log 4523log 410-=+2.3 解:(a)骰子A 和B ,掷出7点有以下6种可能:A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量-log(1/6)=1+log3≈2.58 bit(b) 骰子A 和B ,掷出12点只有1种可能: A=6,B=6概率为1/36,所以信息量-log(1/36)=2+log9≈5.17 bit2.5解:出现各点数的概率和信息量:1点:1/21,log21≈4.39 bit ; 2点:2/21,log21-1≈3.39 bit ; 3点:1/7,log7≈2.81bit ; 4点:4/21,log21-2≈2.39bit ; 5点:5/21,log (21/5)≈2.07bit ; 6点:2/7,log(7/2)≈1.81bit 平均信息量:(1/21)×4.39+(2/21)×3.39+(1/7)×2.81+(4/21)×2.39+(5/21)×2.07+(2/7)×1.81≈2.4bit2.7解:X=1:考生被录取; X=0:考生未被录取; Y=1:考生来自本市;Y=0:考生来自外地; Z=1: 考生学过英语;Z=0:考生未学过英语P(X=1)=1/4, P(X=0)=3/4; P(Y=1/ X=1)=1/2; P(Y=1/ X=0)=1/10;P(Z=1/ Y=1)=1, P(Z=1 / X=0, Y=0)=0.4, P(Z=1/ X=1, Y=0)=0.4, P(Z=1/Y=0)=0.4 (a) P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=0.075, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)=0.125P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)=0.2P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=0.375, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=0.625 I (X ;Y=1)=∑∑=====xx)P()1Y /(P log)1Y /(P )1Y (I )1Y /(P x x x x;x=1)P(X )1Y /1X (P log)1Y /1X (P 0)P(X )1Y /0X (P log)1Y /0X (P =====+======0.375log(0.375/0.75)+0.625log(0.625/0.25)=(5/8)log5-1≈0.45bit(b) 由于P(Z=1/ Y=1)=1, 所以 P (Y=1,Z=1/X=1)= P (Y=1/X=1)=0.5 P (Y=1,Z=1/X=0)= P (Y=1/X=0)=0.1那么P (Z=1/X=1)= P (Z=1,Y=1/X=1)+ P (Z=1,Y=0/X=1)=0.5+ P (Z=1/Y=0,X=1)P (Y=0/X=1)=0.5+0.5*0.4=0.7P(Z=1/X=0)= P (Z=1,Y=1/X=0)+ P (Z=1,Y=0/X=0)=0.1+P(Z=1/Y=0,X=0)P(Y=0/X=0)=0.1+0.9*0.4=0.46P (Z=1,X=1)= P (Z=1/X=1)*P(X=1)=0.7*0.25=0.175 P (Z=1,X=0)= P (Z=1/X=0)*P(X=0)= 0.46*0.75=0.345 P(Z=1) = P(Z=1,X=1)+ P(Z=1,X=0) = 0.52 P(X=0/Z=1)=0.345/0.52=69/104 P(X=1/Z=1)=35/104I (X ;Z=1)=∑∑=====xx )P()1Z /(P log )1Z /(P )1Z (I )1Z /(P x x x x;x=1)P(X )1Z /1X (P log )1Z /1X (P 0)P(X )1Z /0X (P log )1Z /0X (P =====+======(69/104)log(23/26)+( 35/104)log(35/26) ≈0.027bit(c)H (X )=0.25*log(1/0.25)+0.75*log(1/0.75)=2-(3/4)log3=0.811bit H(Y/X)=-P(X=1,Y=1)logP(Y=1/X=1) -P(X=1,Y=0)logP(Y=0/X=1)-P(X=0,Y=1)logP(Y=1/X=0) -P(X=0,Y=0)logP(Y=0/X=0)=-0.125*log0.5-0.125*log0.5-0.075*log0.1-0.675*log0.9=1/4+(3/40)log10-(27/40)log(9/10)≈0.603bitH(XY)=H(X)+H(Y/X)=9/4+(3/4)log10-(21/10)log3=1.414bitP(X=0,Y=0,Z=0)= P(Z=0 / X=0, Y=0)* P( X=0, Y=0)=(1-0.4)*(0.75-0.075)=0.405 P(X=0,Y=0,Z=1)= P(Z=1 / X=0, Y=0)* P( X=0, Y=0)=0.4*0.675=0.27P(X=1,Y=0,Z=1)= P(Z=1/ X=1,Y=0)* P(X=1,Y=0)=0.4*(0.25-0.125)=0.05 P(X=1,Y=0,Z=0)= P(Z=0/ X=1,Y=0)* P(X=1,Y=0)=0.6*0.125=0.075 P(X=1,Y=1,Z=1)=P(X=1,Z=1)- P(X=1,Y=0,Z=1)=0.175-0.05=0.125 P(X=1,Y=1,Z=0)=0 P(X=0,Y=1,Z=0)=0P(X=0,Y=1,Z=1)= P(X=0,Z=1)- P(X=0,Y=0,Z=1)= 0.345-0.27=0.075H(XYZ)=-0.405*log0.405-0.27*log0.27-0.05*log0.05-0.075*log0.075-0.125*log0.125-0.075*log 0.075=(113/100)+(31/20)log10-(129/50)log3 =0.528+0.51+0.216+0.28+0.375+0.28=2.189 bitH(Z/XY)=H(XYZ)-H(XY)= -28/25+(4/5)log10-12/25log3 =0.775bit2.9 解:A ,B ,C 分别表示三个筛子掷的点数。

数字通信原理第二章 信源编码习题解答

数字通信原理第二章 信源编码习题解答

第二章信源编码习题解答1、设英文字母E出现的概率为0.105,X出现的概率为0.002,试求E和X的信息量。

2、某离散信源输出x1、x2、…、x8共8个不同的消息,符号速率为2400B,其中四个消息出现的概率为P(x1)=P(x2)=1/16,P(x3)=1/8,P(x4)=1/4,其他消息等概率出现。

①求该信源的平均信息速率;②求传送一小时的信息量。

3、设一离散信源分别以概率P A、P B、P C、P D发送四个消息A、B、C、D,每个消息的出现是相互独立的,试根据条件完成以下计算:①如果P A=1/4,P B =1/8,P C =1/8,P D=1/2,试计算该信源的熵;②对于传输的每一消息用二进制脉冲编码,00代表A ,01代表B ,11代表C ,10代表D ,每个脉冲宽度为5ms ,如果不同的消息等可能出现,试计算传输的平均信息速率;③如果P A =1/5,P B =1/4,P C =1/4,P D =3/10,试用Huffman 编码算法对该信源进行编码,并计算编码效率。

[解] ①H =1.75 bit/符号②符号速率为R B =1/2*0.005=100 B ,信息速率为R b = R B *2=200 B 。

③ 略。

4、设A 系统以2000bps 的比特率传输2PSK 调制信号的带宽为2000Hz ,B 系统以2000bps 的比特率传输4PSK 调制信号的带宽为1000Hz 。

试问:哪个系统更有效?[解] 两个传输速率相等的系统其传输效率并不一定相同。

因为真正衡量数字通信系统有效性的指标是频带利用率。

对于A 系统,20001(/)2000b b R bps Hz B η=== 对于B 系统,20002(/)1000b b R bps Hz B η=== 所以B 系统的有效性更好。

5、设某四进制数字传输系统的每个码元的持续时间(宽度)为833×10-6s ,连续工作1h 后,接收端收到6个错码,且错误码元中仅发生1bit 的错码。

信息理论与编码课后答案第2章

信息理论与编码课后答案第2章

第二章 信息的度量习题参考答案不确定性与信息(2.3)一副充分洗乱的牌(含52张),试问: (1)任一特定排列所给出的不确定性是多少?(2)随机抽取13张牌,13张牌的点数互不相同时的不确定性是多少? 解:(1)一副充分洗乱的扑克牌,共有52张,这52张牌可以按不同的一定顺序排列,可能有的不同排列状态数就是全排列种数,为6752528.06610P =≈⨯!因为扑克牌充分洗乱,所以任一特定排列出现的概率是相等的。

设事件A 为任一特定排列,则其发生概率为 ()6811.241052P A -=≈⨯!可得,任一特定排列的不确定性为()()22log log 52225.58I A P A =-=≈!比特 (2)设事件B 为从中抽取13张牌,所给出的点数都不同。

扑克牌52张中抽取13张,不考虑其排列顺序,共有1352C 种可能的组合,各种组合都是等概率发生的。

13张牌中所有的点数都不相同(不考虑其顺序)就是13张牌中每张牌有4种花色,所以可能出现的状态数为413。

所以()131341352441339 1.05681052P B C -⨯!!==≈⨯!则事件B 发生所得到的信息量为()()13213524log log 13.208I B P B C =-=-≈ 比特2.4同时扔出两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“2和6 同时出现”这事件的自信息量。

(2)“两个3同时出现”这事件的自信息量。

(3)两个点数的各种组合(无序对)的熵。

(4)两个点数之和(即2,3,…,12构成的子集)的熵。

(5)两个点数中至少有一个是1的自信息。

解:同时扔两个正常的骰子,可能呈现的状态数有36种,因为两骰子是独立的,又各面呈现的概率为61,所以36种中任一状态出现的概率相等,为361。

(1) 设“2和6同时出现”这事件为A 。

在这36种状态中,2和6同时出现有两种情况,即2,6和2,6。

信息论与编码第二章习题参考答案

信息论与编码第二章习题参考答案

2.1 同时掷两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“3和5同时出现”事件的自信息量; (2)“两个1同时出现”事件的自信息量;(3)两个点数的各种组合(无序对)的熵或平均信息量; (4)两个点数之和(即2,3,…,12构成的子集)的熵;(5)两个点数中至少有一个是1的自信息。

解:(1)一个骰子点数记为X ,另一个骰子的点数记做Y ,X 、Y 之间相互独立,且都服从等概率分布,即同理一个骰子点数为3,另一个骰子点数为5属于组合问题,对应的概率为181616161613Y Py 5X Px 5Y Py 3X Px P 1=⨯+⨯===+===)()()()(对应的信息量为比特)()(17.4181-lb P -I 11===lb(2)两个骰子点数同时为1的概率为)()(3611Y Py 1X Px P 2==== 对应的信息量为比特)()(17.5361-lb P -I 22===lb(3)各种组合及其对应的概率如下,6,5,4,3,2,1Y X 3616161Y X P ===⨯==)(共6种可能18161612Y X P =⨯⨯=≠)( 共有15种可能因此对应的熵或者平均自信息量为34.418118115-3613616-H 1=⨯⨯⨯⨯=)()(lb lb 比特/符号 (4)令Z=X+Y ,可以计算出Z 对应的概率分布如下对应的熵为符号比特)()()()()()()(/1.914366366-3653652-3643642-3633632-3633632-3623622-361361-2H 1=⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯=lb lb lb lb lb lb lb (5)X 、Y 相互独立,所以联合熵为比特)()(597.06162Y X,I =⨯=lb2.2 设在一只布袋中装有100个大小、手感完全相同的球,每个球上涂有一种颜色。

100个球的颜色有下列3种情况:(1)红色球和白色球各50个; (2)红色球99个,白色球1个; (3)红、黄、蓝、白色球各25个。

信息论与编码第二章答案

信息论与编码第二章答案

第二章信息的度量2.1信源在何种分布时,熵值最大?又在何种分布时,熵值最小?答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。

2.2平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系?答:若信道给定,I(X;Y)是q(x)的上凸形函数;若信源给定,I(X;Y)是q(y|x)的下凸形函数。

2.3熵是对信源什么物理量的度量?答:平均信息量2.4设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少?答:kk k xi q xi q X H i log 1log 1)(log )()(2.5根据平均互信息量的链规则,写出I(X;YZ)的表达式。

答:)|;();();(Y Z X I Y X I YZ X I 2.6互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?答:互信息量)()|(log );(xi q yj xi Q y x I ,若互信息量取负值,即Q(xi|yj)<q(xi),说明事件yi 的出现告知的是xi 出现的可能性更小了。

从通信角度看,视xi 为发送符号,yi 为接收符号,Q(xi|yj)<q(xi),说明收到yi 后使发送是否为xi 的不确定性更大,这是由于信道干扰所引起的。

2.7一个马尔可夫信源如图所示,求稳态下各状态的概率分布和信源熵。

答:由图示可知:43)|(41)|(32)|(31)|(41)|(43)|(222111110201s x p s x p s x p s x p s x p s x p 即:43)|(0)|(41)|(31)|(32)|(0)|(0)|(41)|(43)|(222120121110020100s s p s s p s s p s s p s s p s s p s s p s s p s s p 可得:1)()()()(43)(31)()(31)(41)()(41)(43)(210212101200s p s p s p s p s p s p s p s p s p s p s p s p得:114)(113)(114)(210s p s p s p )]|(log )|()|(log )|()[()]|(log )|()|(log )|()[()]|(log )|()|(log )|()[(222220202121211111010100000s s p s s p s s p s s p s p s s p s s p s s p s s p s p s s p s s p s s p s s p s p H 0.25(bit/符号)2.8一个马尔可夫信源,已知:0)2|2(,1)2|1(,31)1|2(,32)1|1(x x p x x p x x p x x p 试画出它的香农线图,并求出信源熵。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

信源编码Assignment of CH21、(a)画出一般通信系统结构的组成框图,并详细说明各部分的作用或功能;信源信源编码信道编码调制噪声信道传输,信宿信源解码信道解码解调图1、一般数字通信系统框图各部分功能:1、信源和信宿:信源的作用是把消息转换成原始的电信号;信宿的作用是把复原的电信号转换成相应的消息。

.2、信源编码和信源解码:一是进行模/数转换,二是进行数据压缩,即设法降低信号的数码率;信源解码是信源编码的逆过程。

3、信道编码和信道解码:用于提高信道可靠性、减小噪声对信号传输的影响;信道解码是信道编码的反变换。

4、调制和解调:将信息调制为携带信息、适应在信道中传输的信号。

数字"解调是数字调制的逆变换。

5、信道:通信的通道,是信号传输的媒介。

(b)画出一般接收机和发射机的组成框图,并分别说明信源编解码器和信道编解码器的作用;…高频振荡器高频放大调制高频功放天线"音频功放信号图2、一般发射机框图(无线广播调幅发射机为例)天线信号放大器混频器解调器音频放大器信号本地振荡器图3、一般接收机框图(无线广播调幅发射机为例)信源编解码器作用:它通过对信源的压缩、扰乱、加密等一系列处理,力求用最少的数码最安全地传输最大的信息量。

信源编解码主要解决传输的有效性问题。

信道编解码器作用:使数字信息在传输过程中不出错或少出错,而且做到自动检错和尽量纠错。

信道编解码主要解决传输的可靠性问题。

(c)信源编码器和解码器一般由几部分组成,画出其组成图并给以解释。

信源编码器时频分析量化熵编码信道传输时频分析反量化熵解码信源解码器图 4、信源编解码器框图时频分析部分:信源编码器对信源传送来的信号进行一定方法的时域频域分析,建立一个能够表达信号规律性的数学模型,从而得知信号中的相关性和多余度,分析出信号数据中可以剔除或减少的部分(比如人感知不到的高频率音频信号或者看不见的色彩信号等等),以决定对后续数据的比特分配、编码速率等处理问题。

量化部分:根据时频分析的结果,为了更加简洁地表达利用该模型的参数,减少精度,采取相应量化方法对信号进行量化,减小信号的多余度和不相关性,也达到了减小数据量的目的, 如果没有此步骤,则可以实现信源压缩。

反 量化是其逆过程。

熵编码部分:采取相应的熵编码方式,对量化后的量化数据进行无失真的码 字分配,尽可能紧凑地压, 同时力求编码能忠实地再现模型参数的量化符 号,是一种无失真的压缩编码。

熵解码是其逆过程。

2、( a )用具体事实说明为什么要进行数据压缩和信源编码 以一部电影为例:假如一部 24 帧/秒的高清电为 90 分钟,分辨率为 1920×1080,每个像素点采用 8bit 位编码( 256 全彩色),那么每帧上的信息量 就为 1920× 1080× 8/1024=,每分钟有 24×60=1440 帧, 90 分钟就有 129600 帧,所以这部电影的总信息量为 129600×1024≈ 48000Gb 。

这是一 个很恐怖的数据量, 所以为了更加快速和便携地对多媒体信息 充分地 利用目前有限的存, 提高信道利用率,让多媒体信息能够广泛普 就必须对信源进行数据压缩与信源编码。

(b )为什么能够进行进行数据压缩和信源编码 图 5、数据压缩方向:多余度与不相关性 如图 5 所示,该图表明了信源余度和不相关性)和编码的总体方向如一幅图片或电影中存在大面色模块, 那么这些模块中就存在着大量的多 余度,也就给了我们可以进行数不相关性,例如在被麦克风或镜头所采集到的声音视频信息中,就存在着人类所感知不到的频率和色域,这些部分的有无对人类收听和观看多媒体信息没有影响,即这些人类感知的不到的信息在某些情况下是多余的,可以进行数据压缩的。

(c)数据压缩和信源编码的性能主要从那几个方面来衡量一、信号质量:客观度量与主观度量对数据压缩和信源编码性能的判定,很大程度上取决于对处理后信号质量的评价,其实也就是对波形逼真度(或失真度)的测量,这既可以通过客观度量(如信噪比)也可以用主观度量(如平均评分)来评价。

客观度量包括MSE(包括 NMSE、PMSE)这样的准则来度量波形失真,和用S NR(包括 NSNR、PSNR)准则来衡量编码器的性能;主观度量主要是人为的评定,包括二元判决、主观SNR、平均判分( MOS)、等偏爱度曲线和多维计分等,图像视频用各国各地区的主观测试分级标准来评分,语音质量由5 级质量M OS 判分或者 PESQ标准判定。

二、比特率单从数据压缩的角度来说,比特率常常是体现一个实际编码系统或理论压缩算法技术水平的最主要的指标。

三、复杂度信号压缩系统的复杂度是指为实现编解码算法所需的硬件设备量,典型地可用算法的运算量及所需的存储量来度量。

四、通信时延随着算法复杂度的提升,信号样本数增加,处理的时延也会有所提升,而取决于不同的通信环境,对通信时延一般都有不同的要求。

五、编码和数字通信系统的性能空间将信号质量、编码效率、系统复杂度和通信时延抽象为一个 4 维空间,任何数据压缩信源编码系统设计都要考虑到空间内的性能取舍。

一般来说,信号质量和时延决定了一个信息传输系统所能提供的QoS,而codec的效率和复杂度则关系到系统的经济指标。

3、( a )试用信息量和信源熵的概念解释和说明信源多余度和进行无失真编码 的基本原理;首先我们知道数据熵的含义是一组数据度,用H 表示,公式为: nH = [ p log p ]i 2 i i 1 在一组二进制,我们通过计算知, 只有当所有码字出现概率等概时, 信源熵的值最大, 例如:当信源 P= {p1, p2, ⋯ ,p4} = {1/4, 1/4, 1/4, 1/4} 时,H=2; 当 P= {p1, p2, ⋯ , p4} = {1/2, 1/6, 1/6, 1/6} 时,H=。

也就是说,一组数据的 总比特数大于等于码数与信源 这时我们就可以发现信源存在多 余度。

所以可以发现信源数据可压缩(含有多余度)的条件是信源码不等概。

再来看信源多余度的定义: n R I p Hi i i 1当信源等概发送时,此时的 H 与平均码长相等,即 R=0,没有多余度,而当不 等概发送时, R 必大于 0,这就代表了信源信号必有可以进行数据压缩的空间, 而熵 H 就代表了最佳压缩码长。

这也告诉我们采取适当的压缩式,只要 编码码长在最佳压缩码长之上,就现无失真编码。

(b )常用的无失真编码算法 常用的无失真压缩编码有:霍夫曼编码、算术编程编码、二进制信源 编码、基于字典的编码、 L Z W 编码、完全可逆的解 +统计编码等等。

4、信源符号集合为 {a, b},且 P(a)=, P(b)=; (a )如果对信源进行单字符 H u f f m a n 编码如果对双码字信源进行单字符霍夫曼编a 为 0,b 为 1。

所以平均码长 亦为 1。

(b )如果对信源进行双字符 H u f f m算这时的平均编码长度试多少由题:P(aa)=× =P(ab)=× =P(ba)=× =P(bb)=× =霍夫曼编码如下:aa:0ab:10ba:110bb:111所以平均码长为: L=+× 2+× 3+× 3=5、有信源{A, C, G, T}, 且P(A)=, P(C)=, P(G)=, P(T)=, 试用图示解释消息“CAT ”算术编码和解码的过程。

“CAT”的算术编码示意图如下所示:编码方向1AA0.5C CT0.2GT 0.50.2解码方向图 6、消息“CAT”算术编码过程6、试用互信息的概念解释有失真编码的基本原理。

我们知道信号X 与 Y 的互信息量可以表示为:I (X;Y) H (X)H (X |Y)所谓的无失真编码,可以理解为X=Y ,即我们得到解码器的输出Y 时,就可以确定信源信号为X;而在有失真编码中,当我们得到了输出Y,不一定能确定信源信号就是 X,存在一定的不确定性。

而这不确定的平均值即为条件熵H(X|Y )。

当解压缩后得到输出数据,这时原始数据或信息虽可能与其不同,但是在某种使用情形中输出与输入已经“足够接近”,并可以在允许的误差内使用,也就是条件熵 H(X|Y )足够小时,这种情况下就可以进行有失真编码。

在有失真编码中,我们可以将编码码长设定在最佳码长(即信源熵)之下,进一步缩减平均码长,在不严重影响通信系统效果的前提下减小传输数据量。

7、如何解释或理解率失真定理它在有失真编码领域有何指导意义率失真理论是对于一个给定的信源分布与失真度量,在特定的码率下能达到的最小期望失真,或者说为了满足一定的失真限制,最小描述码率可以是多少。

率失真曲线可以最直白地表明其含义:图 7、率失真曲线横坐标 D 代表失真度,纵坐标率失真函数R(D)表示编码的最低速率。

从图中可以看出,随着失真度 D 逐渐增大,允许的编码最低速率也在逐渐降低,也就是表明在某个失真度标准下,我们的编码速率不能低于相应的R(D),同时 R (D)速率也是最佳的编码速率,可以实现最短的编码码长;当失真度为0 时,就变成了无失真编码,这时纵坐标R(D)表示在无失真最佳编码长度(信源熵H)下的编码速率。

率失真理论为有失真信源编码的性能提供理论极限和比较标准,对具体编码方法的研究有方向指导作用:在设计数据压缩有失真算法时,我们希望将算法的性能曲线尽可能地向率失真函数靠拢,靠得越近,证明算法的效率和性能越好。

8、(a)标量量化与矢量量化的区别是什么各自的优缺点可以从那几个方面进行比较按照量化的维数分,量化分为标量量化和矢量量化。

标量量化是一维的量化,一个幅度对应一个量化结果。

而矢量量化是二维甚至多维的量化,两个或两个以上的幅度决定一个量化结果。

以二维情况为例,两个幅度决定了平面上的一点。

而这个平面事先按照概率已经划分为N 个小区域,通过码书对应着一个输出结果。

由输入确定的那一点落在了哪个区域内,矢量量化器就会输出那个区域对应的码字。

矢量量化的好处是引入了多个决定输出的因素,并且使用了概率的方法,一般会比标量量化效率更高。

标量量化是维数为 1 的矢量量化,一个P 维最佳矢量量化器性能总是优于P 个最佳标量量化器。

在相同的编码速率下,矢量量化的失真更小;而相同的失真条件下,矢量量化的码速率更低;矢量量化的复杂度更高。

标量量化和矢量量化有各自的优缺点,适应于不同的应用环境,主要由各自的量化精度、量化级、量化维度和量化效率来决定最终的量化误差。

(b)对频带宽度为8kHz 的宽带语音信号采用16kHz 采样、每个样点用16bit表示,则其原始编码速率是多少由题可知,原始编码速率V=16000× 16/1024=250Kb/s。

相关文档
最新文档