信息论作业答案
信息论编码与纠错课后作业答案

信息论第一章作业参考答案1.3 同时掷一对均匀的骰子,要得知面朝上点数之和,描述这一信源的数学模型。
解:设该信源符号集合为X23456789101112123456543213636363636363636363636X P ⎡⎤⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦⎣⎦1.4 解:根据符号转移概率状态空间为S={00(S 0),01(S 1),02 (S 2),10(S 3),11(S 4),12(S 5),20(S 6),21(S 7),22(S 8)}可写出转移概率矩阵12000001200000121200000120000012121212p p p p pp ppp p p p P p p p ppp p ppp ppppp -⎡⎤⎢⎥-⎢⎥⎢⎥-⎢⎥-⎢⎥⎢⎥=-⎢⎥-⎢⎥⎢⎥-⎢⎥-⎢⎥⎢⎥-⎣⎦状态转移图(略)由状态转移图列方程组,设各状态的转移概率分别为,0~8i p i =00361036231475414762587825881(12)()()()(12)()()(12)()1i i p p p p p p p p p p pp p p p p p p p p p p p p p p p p p p p p p p =⎧=-++⎪⎪=++=⎪=++=⎪⎪=-++⎨⎪=++=⎪⎪=-++⎪⎪=∑⎩ 解得0481235671233p p p p p p p p p p p -⎧===⎪⎪⎨⎪======⎪⎩1.5 解:(1)求平稳后各状态出现的概率 转移概率矩阵为01434121414100P ⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦由P 列方程组12321231212312114431441p p p p p p p p p p p p ⎧=+⎪⎪⎪=+⎪⎨⎪=+⎪⎪⎪++=⎩ 解得平稳分布为111613213513p p p ⎧=⎪⎪⎪=⎨⎪⎪=⎪⎩ (2)若在初始时刻0l =时处于状态S 1,求2l =时刻,21x a =的概率S3S 1S 1l l =1l =221011137{}14248p x a S s ⇒===⨯+⨯=或由二步转移概率矩阵(2)111616 337 81616713 844P P P ⎡⎤⎢⎥⎢⎥⎢⎥=⋅=⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦可得(4)求稳态下字母序列31212a a a a a出现的概率511151416p=⨯⨯⨯⨯=平稳分布P3转移概率1.6 解:信源符号等概率分布,故信源熵为1()12H=bit,9500个符号的信息量为9500bit。
作业参考答案信息论

作业参考答案信息论2.3 ⼀副充分洗乱的牌(含52张),试问:(1)任⼀特定排列所给出的不确定性是多少?(2)随机抽取13张牌,13张牌的点数互不相同时的不确定性是多少?解:(1)52张扑克牌可以按不同的顺序排列,所有可能的不同排列数就是全排列种数,为526752528.06610P =!≈?因为扑克牌充分洗乱,任⼀特定排列出现的概率相等,设事件A 为任⼀特定排列,则其发⽣概率为()6811.241052P A -=≈?!可得,该排列发⽣所给出的信息量为()()22log log 52225.58I A P A =-=!≈ bit 67.91≈ dit(2)设事件B 为从中抽取13张牌,所给出的点数互不相同。
扑克牌52张中抽取13张,不考虑排列顺序,共有1352C 种可能的组合。
13张牌点数互不相同意味着点数包括A ,2,…,K ,⽽每⼀种点数有4种不同的花⾊意味着每个点数可以取4中花⾊。
所以13张牌中所有的点数都不相同的组合数为134。
因为每种组合都是等概率发⽣的,所以()131341352441339 1.05681052P B C -==≈?!则发⽣事件B 所得到的信息量为()()13213524log log 13.208I B P B C =-=-≈ bit3.976≈ dit2.5 设在⼀只布袋中装有100只对⼈⼿的感觉完全相同的⽊球,每只上涂有1种颜⾊。
100只球的颜⾊有下列三种情况:(1) 红⾊球和⽩⾊球各50只; (2) 红⾊球99只,⽩⾊球1只; (3) 红,黄,蓝,⽩⾊各25只。
求从布袋中随意取出⼀只球时,猜测其颜⾊所需要的信息量。
解:猜测⽊球颜⾊所需要的信息量等于⽊球颜⾊的不确定性。
令R ——“取到的是红球”,W ——“取到的是⽩球”, Y ——“取到的是黄球”,B ——“取到的是蓝球”。
(1)若布袋中有红⾊球和⽩⾊球各50只,即()()5011002P R P W === 则 ()()221log log 212I R I W ==-== bit(2)若布袋中红⾊球99只,⽩⾊球1只,即()990.99100P R == ()10.01100P W ==则 ()()22log log 0.990.0145I R P R =-=-= bit ()()22log log 0.01 6.644I W P W =-=-= bit (3)若布袋中有红,黄,蓝,⽩⾊各25只,即()()()()2511004P R P Y P B P W ===== 则 ()()()()21log 24I R I Y I B I W ====-= bit2.7 设信源为1234560.20.190.180.170.160.17X X x x x x x x P =?求()()62log iiiP x P x -∑,井解释为什么()()622log log6i i iP x P x ->∑,不满⾜信源熵的极值性。
信息论习题一二答案

信息论习题一、二答案参考1.一个随即变量x的概率密度函数P(x)= x /2,0≤x≤2V,则信源的相对熵为()。
A. 1.44bit/符号B. 1bit/符号正确C. 0.5bit/符号D. 0.72bit/符号2.下列不属于消息的是()A. 文字B. 图像C. 语言D. 信号3.下列哪一项不属于最简单的通信系统模型()A. 信宿B. 加密C. 信道D. 信源4.下列离散信源,熵最大的是()。
A. H(1/2,1/2)B. H(1/2,1/4,1/8,1/8)C. H(1/3,1/3,1/3)D. H(0.9,0.1)5.下面哪一项不属于熵的性质()A. 对称性B. 确定性C. 完备性D. 非负性6.同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为()。
A. -log36bitB. log36bitC. -log (11/36)bitD. log (11/36)bit7.对连续信源的熵的描述不正确的是()。
A. 连续信源的熵和离散集的熵形式一致,只是用概率密度代替概率,用积分代替求和B. 连续信源的熵由相对熵和无穷大项构成C. 连续信源的熵值无限大D. 连续信源的熵可以是任意整数9.相对熵()。
A. 总非负B. 总为正C. 总为负D. 都不对9.英文字母有26个,加上空格共27个符号,由此H0(X)=4.76bit/符号,根据有关研究H∞(X)=1.4 bit/符号,则冗余度为()。
A. 0.71B. 0.51C. 0.11D. 0.3110.设信源S,若P(s1)=1/2、P(s2)=1/4、P(s3)=1/4,则其信源剩余度为()。
A. 3/4B. 0C. 1/4D. 1/211.设有一个无记忆信源发出符号A和B,已知p(A)=1/4,p(B)=3/4,发出二重符号序列消息的信源,则二次扩展信源熵为()。
A. 0.81bit/二重符号B. 1.86 bit/二重符号C. 0.93 bit/二重符号D. 1.62bit/二重符号12.H(X/X)=0。
信息论基础第二版习题答案

信息论基础第二版习题答案信息论是一门研究信息传输和处理的学科,它的基础理论是信息论。
信息论的基本概念和原理被广泛应用于通信、数据压缩、密码学等领域。
而《信息论基础》是信息论领域的经典教材之一,它的第二版是对第一版的修订和扩充。
本文将为读者提供《信息论基础第二版》中部分习题的答案,帮助读者更好地理解信息论的基本概念和原理。
第一章:信息论基础1.1 信息的定义和度量习题1:假设有一个事件发生的概率为p,其信息量定义为I(p) = -log(p)。
求当p=0.5时,事件的信息量。
答案:将p=0.5代入公式,得到I(0.5) = -log(0.5) = 1。
习题2:假设有两个互斥事件A和B,其概率分别为p和1-p,求事件A和B 同时发生的信息量。
答案:事件A和B同时发生的概率为p(1-p),根据信息量定义,其信息量为I(p(1-p)) = -log(p(1-p))。
1.2 信息熵和条件熵习题1:假设有一个二进制信源,产生0和1的概率分别为p和1-p,求该信源的信息熵。
答案:根据信息熵的定义,信源的信息熵为H = -plog(p) - (1-p)log(1-p)。
习题2:假设有两个独立的二进制信源A和B,产生0和1的概率分别为p和1-p,求两个信源同时发生时的联合熵。
答案:由于A和B是独立的,所以联合熵等于两个信源的信息熵之和,即H(A,B) = H(A) + H(B) = -plog(p) - (1-p)log(1-p) - plog(p) - (1-p)log(1-p)。
第二章:信道容量2.1 信道的基本概念习题1:假设有一个二进制对称信道,其错误概率为p,求该信道的信道容量。
答案:对于二进制对称信道,其信道容量为C = 1 - H(p),其中H(p)为错误概率为p时的信道容量。
习题2:假设有一个高斯信道,信道的信噪比为S/N,求该信道的信道容量。
答案:对于高斯信道,其信道容量为C = 0.5log(1 + S/N)。
信息论复习题期末答案

信息论复习题期末答案1. 信息论的创始人是谁?答案:信息论的创始人是克劳德·香农。
2. 信息熵的概念是什么?答案:信息熵是衡量信息量的一个指标,它描述了信息的不确定性或随机性。
在信息论中,熵越高,信息的不确定性越大。
3. 请简述信源编码定理。
答案:信源编码定理指出,对于一个具有确定概率分布的离散无记忆信源,存在一种编码方式,使得信源的平均编码长度接近信源熵的值,且当信源长度趋于无穷大时,编码长度与信源熵之间的差距趋于零。
4. 什么是信道容量?答案:信道容量是指在特定的通信信道中,能够以任意小的错误概率传输信息的最大速率。
它是信道的最大信息传输率,通常用比特每秒(bps)来表示。
5. 香农公式是如何定义信道容量的?答案:香农公式定义信道容量为信道输入和输出之间的互信息量的最大值,可以表示为C = B log2(1 + S/N),其中C是信道容量,B是信道带宽,S是信号功率,N是噪声功率。
6. 差错控制编码的目的是什么?答案:差错控制编码的目的是为了检测和纠正在数据传输过程中可能发生的错误,以提高数据传输的可靠性。
7. 什么是线性码?答案:线性码是一种特殊的编码方式,其中任意两个合法编码的线性组合仍然是一个合法编码。
线性码通常可以用生成矩阵和校验矩阵来表示。
8. 卷积码和块码有什么区别?答案:卷积码和块码都是差错控制编码的类型,但它们的主要区别在于编码的结构和处理方式。
卷积码是连续的,其编码过程是按时间序列进行的,而块码是离散的,其编码过程是针对数据块进行的。
9. 什么是信道编码定理?答案:信道编码定理指出,对于任何给定的信道和任何小于信道容量的错误概率,都存在一种编码方式,可以使得错误概率趋近于零。
10. 请解释什么是信道编码的译码算法。
答案:信道编码的译码算法是一种用于从接收到的编码信号中恢复原始信息的方法。
常见的译码算法包括维特比算法、最大似然译码和最小均方误差译码等。
这些算法旨在最小化译码错误的概率。
信息论答案完整版

/8
⎥ ⎦
,其发出的消息为(202
120
130
213
001
203 210 110 321 010 021 032 011 223 210),求:
(1) 此消息的自信息是多少?
(2) 在此消息中平均每个符号携带的信息量是多少?
解:(1)因为离散信源是无记忆的,所以它发出的消息序列中各个符号是无依赖的,统计独立的。因
在研究香农信源编码定理的同时,另外一部分科学家从事寻找最佳编码(纠错码)的研究工作,并 形成一门独立的分支——纠错码理论。
1959 年香农发表了“保真度准则下的离散信源编码定理”,首先提出了率失真函数及率失真信源 编码定理。从此,发展成为信息率失真编码理论。
香农 1961 年的论文“双路通信信道”开拓了网络信息论的研究。 现在,信息理论不仅在通信、计算机以及自动控制等电子学领域中得到直接的应用,而且还广泛地 渗透到生物学、医学、生理学、语言学、社会学、和经济学等领域。
I (a4
=
3)
=
− log
P(a4 )
=
− log
1 8
=
log2
8=3(比特)
此消息中共有 14 个符号“0”,13 个符号“1”,12 个符号“2”和 6 个符号“3”,则此消息的自
信息是
I = 14I (a1 = 0) +13I (a2 = 1) +12I (a3 = 2) + 6I (a4 = 3) ≈ 14×1.415 +13× 2 +12× 2 + 6× 3 ≈ 87.71(比特)
此,此消息的自信息就等于各个符号的自信息之和。则可得:
I
(a1
=
信息论考题及答案

一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+= 证明:设P(x,y)=P(x)P(y),则有1H(X,Y)()()logP()()11()()log()()log ()()11()log()log ()()()()xyxyxy xy P x P y x P y P x P y P x P y P x P y P x P y P x P y H X H Y ==+=+=+∑∑∑∑∑二、(50分)联合总体X ,Y 具有如下联合分布。
XY分别计算(1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少?(3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少? 解答:(1) H(X,Y)=3.375(2) H(X)=2, H(Y)=1.75(3) H(X|y=1)=2,H(X|y=1)=1.875,H(X|y=1)=1.875, H(X|y=4)=0.5(4)H(X|Y)=1.1264(5)I(X;Y)=H(X)-H(X|Y)=2-1.1264=0.8736 三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。
输入总体为x Ω:{0P =0.9,1p =0.1},假设观察到y=1,请计算(1|1)P x y ==? 解:(1|1)P x y ===(1|1)(1)(1|)()xP y x P x P y x P x ===∑==9.015.01.085.01.085.0⨯+⨯⨯=22.0085.0=0.39一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+=二、(50分)联合总体X ,Y 具有如下联合分布。
XY分别计算(1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少?(3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少?三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。
(信息论)第二、三章习题参考答案

第二章习题参考答案2-1解:同时掷两个正常的骰子,这两个事件是相互独立的,所以两骰子面朝上点数的状态共有6×6=36种,其中任一状态的分布都是等概的,出现的概率为1/36。
(1)设“3和5同时出现”为事件A ,则A 的发生有两种情况:甲3乙5,甲5乙3。
因此事件A 发生的概率为p(A)=(1/36)*2=1/18 故事件A 的自信息量为I(A)=-log 2p(A)=log 218=4.17 bit(2)设“两个1同时出现”为事件B ,则B 的发生只有一种情况:甲1乙1。
因此事件B 发生的概率为p(B)=1/36 故事件B 的自信息量为I(B)=-log 2p(B)=log 236=5.17 bit (3) 两个点数的排列如下:因为各种组合无序,所以共有21种组合: 其中11,22,33,44,55,66的概率是3616161=⨯ 其他15个组合的概率是18161612=⨯⨯symbol bit x p x p X H ii i / 337.4181log 18115361log 3616)(log )()(=⎪⎭⎫ ⎝⎛⨯+⨯-=-=∑(4) 参考上面的两个点数的排列,可以得出两个点数求和的概率分布:sym bolbit x p x p X H X P X ii i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 3612 )(log )()(36112181111211091936586173656915121418133612)(=⎪⎭⎫ ⎝⎛+⨯+⨯+⨯+⨯+⨯-=-=⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡∑(5)“两个点数中至少有一个是1”的组合数共有11种。
bitx p x I x p i i i 710.13611log )(log )(3611116161)(=-=-==⨯⨯=2-2解:(1)红色球x 1和白色球x 2的概率分布为⎥⎥⎦⎤⎢⎢⎣⎡=⎥⎦⎤⎢⎣⎡2121)(21x x x p X i 比特 12log *21*2)(log )()(2212==-=∑=i i i x p x p X H(2)红色球x 1和白色球x 2的概率分布为⎥⎥⎦⎤⎢⎢⎣⎡=⎥⎦⎤⎢⎣⎡100110099)(21x x x p X i 比特 08.0100log *100199100log *10099)(log )()(22212=+=-=∑=i i i x p x p X H (3)四种球的概率分布为⎥⎥⎦⎤⎢⎢⎣⎡=⎥⎦⎤⎢⎣⎡41414141)(4321x x x x x p X i ,42211()()log ()4**log 4 2 4i i i H X p x p x ==-==∑比特2-5解:骰子一共有六面,某一骰子扔得某一点数面朝上的概率是相等的,均为1/6。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第二章1■一阶齐次马尔柯夫信源消息集X {引心色},状态集s {Si, S2, Ss}符号条件转移概率为P(aj/Si)】J4 12 141[1/4 14 1/2H(X|Si)=H(1/3,1/3,1 /3)=1.58bit/ 符号H(X|S2)=H(1/4,1/2,1/4)=1.5bit/ 符号=H(X|Ss)3H/X)=E wH(X |SJ 二寻勺.58+春咒 1.5 咒2=1.52 bit/符号id:2如果你确定你的朋友是6月的生日,但是不知道具体是哪一天。
那么你问你的朋友生日是6月哪一天?”,则答案中含有的信息量为 4.91 bit ;3p42 2-124 p422-135 p432-196 p442-29第三章1-■设信道的转移概率矩阵为0.9 0.1 IP 二IL0.1 0.9。
且令Si=ai,i=1,2,3,A [訓W2I d 1(2) 3W1+4 W2=W33V\4vi4v\你的⑴若P(Xo)=O.4, p(Xi)=0.6,求H(X), H(Y), H(Y|X )和l(X; Y);(2 )求该信道的信道容量及其达到信道容量时输入符号的概率分布。
(3) 设该信道以1800个二元符号/秒的速度传输输入符号。
现有一消息序列共有10000个二元符号,在P(Xo)=l/2,p(刈=1/2情况下,从信息传输的角度来考虑'10秒内能否将这消息序列无失真地传送完?0.36 0.04解:(1)(P(x, y) I - 006054, [P(y)]=[°42 0.58]H(X)二H(0.4,0.6) =0.97 bit/ 符号H(Y) =H (0.42,0.58) =0.98 bit/ 符号H(Y|X) =H (0.9,0.T0.47 bit/ 符号l(X;Y)= H(Y)- H(Y|X)=0.51biV 符号(2) (护 1 — H(Y|X)=0.53biV 符号po=pi=O.5(3) H(X)X 10= 104 bit41800 X CX 10= 9540 bit < 10所以不能无失真传送完。
2■信道的特征如图所示 > 求该信道的信道容量及其达到信道容量的信源所发送符号的概率分布。
0.51 0.5 .d解:假设信源发送符号0的概率为P,则发送符号1的概率为1-P1H(Y/X)P(Xi) a P(yj/x)log ・1-Pj P(yMx)[P(Y-c)P(Y-d)|.|p1_p 1 0 0.5(1 -p)0.5(1-p)l0.5 0.5, 1彳0.5(1-p)log 1 —H(Y)八P(yj)log 0.5(1 p)log 0.5(1 一p)jiP(yj) 0.5(1+p)l(X;Y) =H (Y) _H(Y/X)由:KX;Y)=0可得到:p "5CPmr r 丄/\Z \ /\ a3两个BSC信道的级联如右图所示:(1) 写出信道转移矩阵;(2) 求这个信道的信道容量。
解:00 01 -61 1 Y 1(1)D DD 1 —呂w 1 (1—名)2 2A(1—E)i—农」名i—农一[2名(1—名)(i—町2+名2⑵ C =log2 -H((1 - ;)2;今4 ■电视图像由30万个像素组成,一个像素可取10个可分辨的灰度等级,假设各个像素的10个灰度等级均等概率出现,实时传送电视图像每秒发送25帧图像,为保证图像质量,信号与噪声的平均功率比值为30dB,试计算(1) 电视图像的信源嫡;(2)传送电视的视频信号所需要的最小带宽。
解:(1)由于每个灰度等级等概岀现,则在不同像素点由不同灰度等级组成的画面也等概出现,每幅画面出现的概率为p(G =1/1031°=10Ai°5信源循nH(X) = —E p(x)log p(Xj)= —lb(10 职丈)=9.97 沃10s bit/ 画面(2) 视频信号所需要的最小信道容量为C t = H(X)/t =9.97 105/(1/25)=2.49 10^bit/s30SNR=3OdB=1Oio=1OOO根据香农公式,传送电视的视频信号所需要的最小带宽为w=G/log(1 SNR) =2.49 10Vlog(1 1000A2.5 1042.5MHz5某信号为随机变量X,信号X(t)幅度的概率密度为均匀分布,(1)0乞x(t),求信源炳H C(X);(2)该信号在7MHz带宽的某高斯信道上传输,若信道中的信号功率与噪声功率谱密度之比(Ps/N o)为21 MHz,求该信道的信道容量。
解:c)p(x) -11Hc(X)二.Px(x)log Px(x)d(x) = - o1 logldx = 0 (比特)(2)SNR 二P/N 二P s/(No W) =21/7 =3C =Wlog(1 S/N) =7 log(1 21/7) =14Mbps的2只个可能的电平之一。
试计算(1 )码字通过BSC信道被正确接收的概率;(2 )码字通过BSC信道后至少有1比特差错的概率;(2)在一个码字中,差错比特数小于等于Ne的概率;(3)若R=5, P=0.01, Ne=5,计算(1 )、( 2)、(3)各题中的概率。
解:P(码字被正确接收)=(1-pFRP(至少有1比特差W=1 -(1-P)NeP差错比特数小于等于Ne上x CRP心P)RLi 土P(码字被正确接收)=0.951P(至少有1比特差错)=0.049P差错比特数小于等于Ne)=0.049第四章1 ■设输入符号表为X二{0,1},输出符号表为Y二{0, 1}。
输入信号的概率分布为p二(1/2 ,1/2),失真函数为d(0 , 0) = d(1 , 1) = 0,d(0 , 1)=2, d(1 , 0) = 1,试求Dmin, Dmax, R(Dmin), R(Dmax)以及相应的编码器转移概率矩阵。
-1 01[p (y/x)]二0 1Dmax二0-5R(Dmax)= mi 0 (1分),相应的编码器转移概率矩阵[p(y/x)]二°n {0.5*0+0.5*1,0.5*0+0.5*2}=10解:Dmin =0, R(Dmin)= 1bit/symbol,相应的编码器转移概率矩阵第五章1 ■某信源有7个符号{5,……7,}|概率分别为0.3, 0.2, 0.15, 0.12, 0.1,0.07, 0.06;(1 )求信源的符号燔H(U);(2)求出相应的费诺编码(写出编码过程,否则不得分)和对应的编码效率;(3 )求出相应的哈夫曼编码(写出编码过程,否则不得分)和对应的编码效率解:(1) H(U)=H(0.3, 0.2, 0.15, 0.12, 0.1,0.07, 0.06) = 2.6074biV 符号;(2)费诺编码K = E[K]二 2.63 = H (u)/ K = 99.14%(2)哈夫曼编码K 二E[K] =2.63 = H(u)/K =99.14%2 ■设有离散无记忆信源输出两个符号,概率分布为a1 32,则信源嫡等于多少?若用09 0.1 丿哈夫曼编码方法对两个信源符号组成的序列进行二进制编码,则每个信源符号的平均码长是多少?其编码效率是多少?。
解:H(X)=0.469比特/符号°aiai 0.8110 aia2 0.09110 a2ai 0.09 Ho.19111 3232 0.01 丄0[0_=1_0.81 2 0.09 3 0.09 3 0.01 =1.29 码元/序列R二心/2 =0.645码元/符号=HXU 叽72.7%K 0.645X x x3若有一信源=| 1 2每秒钟发出2.55个信源符号。
将此信源的输出符号送入'P 0.8 0.2某一个二元信道中进行传输(假设信道是无噪无损的,容量为1 bit/二元符号),而信道每秒钟只传递2个二元符号。
(1 )试问信源不通过编码(即Xi_; 0,X2-;1在信道中传输)能否直接与信道连接?(2)若通过适当编码能否在此信道中进行无失真传输?(3) 试构造一种哈夫曼编码(两个符号一起编码),使该信源可以在此信道中无失真传输。
1 •不能,此时信源符号通过 0, 1在信道中传输,2.55二元符号/s>2二元符号/s2•从信息率进行比较,2.55* H (0.8,0.2) =1.84 <1*2可以进行无失真传输1 |110 11 1 1 0 0 1 00 0 0H =ro T i .=11 0 0 0 1 0 L 01 10 00 1(2)所有码字:C=MG'0000000 1001110 0011101 1010011 0100111 1101001 0111010 1110100(3) 最小距离就是非零码字最小重量,为4;(4) C=MGm=110, c=110100101110012 ■已知(7, 3)线性分组码的生成矩阵G= 0101110 ,0 xixi 0.64 11X1X2 0.16100 X2X1 0.161101 泌 o.oJ0.64 - A0.161 2 3 44K2 二為 Pi Ki =0.64 0.16*2i 生0.2*3 =1.56二元符号/2个信源符号此时 1.56/2*2.55=1.989 二元符号 /s < 2 二元符号 /sxk 亠 一弟八早10 0 1 1101・(7,3)码的生成矩阵G = 01 0 0 111・0111010• 0.64(1) 求该码的码集;(2) 求对应的系统形式的生成矩阵G ;(3) 计算系统码的校验矩阵H;⑷该码的最小码距dmin,该码的纠错能力t = ?(5) 列出可纠差错图案和对应的伴随式;(2)G*=1 0 111110 010 0⑶H =1 1 1 0 0 1 01 0 1 0 0 0 1.⑷ dmi n=1001011S E 0000 0000000 0001 0000001 0010 0000010 0100 0000100 1000 0001000 1011 0010000 1110 0100000101110000003 ■某系统(7, 4)码 (?) dmin=3c=(C6 c 5 c 4 C3 c 2 Ci Co)二rfnm2m 。
C 2 Ci Co)其三位校验位与信息位的矢系为:C2 = :rri3 mi moci 二m3 m2 mico-:m 2 mi m 0(1 )求对应的生成矩阵和校验矩阵; (2 )计算该码的最小距离;(3 )列出可纠差错图案和对应的伴随式。
000 0 100=0 010卫sE 000 0000000 001 0000001 010 ******* 100 0000100 101 0001000 111 0010000 011 0100000 110100000043 24 ■若(7,3 )循环码的g(x)二Xxx321 ‘则相应的校验多项式h(x) = XX1。