信息理论与编码

信息理论与编码

第一讲

1、信息论与编码的关系(重要)

信息论研究的是编码极限,首先要通讯就要编码,编码有各种方法,选取好的,压缩数据,从编码有效性来说,数据最短的最好,信息论告诉我们什么样的情况数据最短。

2、编码与通讯的关系

通讯就是把信息从A点传到B点的过程,信息要进行传递必须把信息加载到一定载体上而把信息指代给载体的过程就是编码,如果要通讯就一定要进行编码。

3、什么是摩尔斯码?

摩尔斯码是人类第一个使用的编码,摩尔斯码是由点和划来表示常用的英文字母、标点符号以及10个阿拉伯数字的编码,通过这个编码就可以把通常的电报内容用电码形式传递出来。

4、SOS的含义

这三个救急信号是摩尔斯码里的“———”,不是英文缩写。

5、信息论的发展简史

1917年频分复用(载波);

1924年采样定理;模拟—数字信号

1932年摩尔斯电报系统;

1948年Shannon发表论文“通讯的数学理论”,从而“信息论”诞

生了。

6、什么是加密编码?举例说明。

7、编码需要解决通讯中的哪三个问题?

1)压缩数据;

2)检错和纠错;

3)通讯过程中的加密。

8.加密编码在信息通讯中的作用。举例说明(重要)

1)网上银行数字证书

2)二次世界大战美国人没有破译日本人的密码就会有更多人牺牲

IT时代信息的保密十分重要

1、什么是信息科学、信息论

信息科学是研究所有信息现象的一门学科,信息论研究通讯中的信息

传递、加密、压缩、纠错。

2、信息论和信息科学的关系、区别(重要)

信息论只要讲通讯里的信息处理问题(如信息传递、加密、收缩、纠错),范围窄;信息科学讲的是所有领域的信息处理问题,例如知识论等,范围广。信息论是信息科学中的一部分。

3、信息科学研究的范围和具体内容

信息科学研究通信中的信息和信息的获取、传递、认知、再生、施效、组织等所有信息现象。第三讲

1、信息的定义(重要)

维纳的信息定义——信息就是信息,不是物质也不是能量。

仙农的定义——用来减少随机不定性的东西。

我们自己的定义——信息是内容和载体的统一体,指代了内容的载体

就是信息。

2、信息的三要素以及它们之间的关系(重要)

信息三要素:载体、内容、指代;

内容:传输的信息,指代的原像;

载体:物质、场;

指代:编码

区别:同一载体可指代不同内容,同一内容也可指代不同载体。载体

是物质的,内容是精神的,内容通过指代到载体。

举例说明:红色可以指代颜色和危险不同的内容苹果在中文英文西班

牙文中都是不同的

3、成为载体的三个必要条件(重要)

必须是物质的、有两种以上可分辨状态、在时空位可排列和展开。

举例说明:文字、语言、手势、结绳、烽火、01码、盲文第四讲

1、什么是符号集、时空位?符号集中的符号与时空位的区别?举例

说明。(重要)符号集就是由符号组成的集合,例:英文26个字母、汉字、0到9阿拉伯数字;时空位就是通讯过程中的一个时空的点,其有不

同的可分辨状态。

这个时空点可填充不同符号,例:一排红绿灯中的某个灯、7位

ASCII码中的一位。时空位是指信息中一个时空的位置,即存放编码符号

集的位子。

2、什么是信息序列、信息流?

信息序列:指代了内容的时空位序列;

信息流:信息序列随时间变换,由时空位构成的指代了内容信息载体。

3、什么是信源、信宿以及信道?举例说明(重要)

信源——信息的产生和发送者,例:嘴;

信宿——信息接受者,例:耳朵;

信道——信源与信宿之间的信息传输媒介,例:空气。

信宿分为无能和万能(可以理解接受所有信宿)人不是无能因为他可

以接受声音等,她也不是万能,因为他不能接受红外线。

4、信息如何分类?

①语法信息、语义信息、语用信息;②自然信息、编码信息;③离散

信息、连续信息。

5、通讯中有哪三种编码?

信源编码、信道编码、加密编码。

6、信源编码与信道编码之间的关系、区别(重要)

信源编码就是在信源端对数据进行的压缩编码,目的是信源端压缩数据使数据变短;信道编码就是使得信息可以在信道上传输以及正确传输,目的是在信道上正确传递数据,加了检验位和纠错位使得数据变长。

7、什么是调制与解调?为什么要调制与解调?(重要)

调制就是将需要传输的信号加载到载波上去的过程;解调就是把信号从载波中取出的过程。原因:

1)因为天线发射无线电波必须满足无线电波的半波长和天线的尺寸近似相等,才能有效地

发射,必须把低频信号加载到高频信号上去;

2)可实现N个人和N个人之间的通讯。

1、什么是载体和内容信息量?

载体信息量:载体最大能承载的信息量;

内容信息量:内容包含的信息的多少。

2、物理量的一般定量方法的三个步骤(重要)

1)寻找一个单位,单位保证不变,容易获取以及测量,不能消失;

2)将待测量与单位比较,得到倍数关系;

3)用测量倍数和单位得到测量值。

举例速度单位30万公里/秒

3、信息的单位及换算关系

信息单位:

1)状态数(个);

2)bit(以二为底的对数);

3)det(以十为底);

4)nat(e)。

换算关系:用N的单位为种,I的单位为位bit,换算公式为

I=log2N(bit)

4、什么是Hartley公式?其单位是?

1928年Hartley载体信息公式:I=log2N(bit),N为可分辨状态数。

5、如何来计算一张光盘的信息量?

光盘中有n个时空位,每个时空位有b种表示,则光盘的信息量为:

N=b(种),I=nlognb(bit)

6、如何提高一张光盘存储信息量?

光盘储存信息量的决定因素为:

1)时空位的密度——增加时空位的密度;

2)一个时空位上的可分辨物理状态数——提高一个时空位上的可分辨

物理状态数。可据以上两个因素提高光盘储存信息量。

第六讲

1、十个天干和十二个地支分别是什么?今年、明年是什么年?

天干:甲、乙、丙、丁、戊、己、庚、辛、壬、癸;

地支:子、丑、寅、卯、辰、巳、午、未、申、酉、戌、亥。

天干地支组合成如下六十个计时序号,作为纪年、月、日、时的名称,叫干支纪年法;用六十甲子依次纪年,六十年一个轮回。

今年是庚寅年,计算方法:天干——年数减3,除以10所得余数;

地支——年数减3,除以12所得余数。

明年是辛卯年。

2、易经中表示阴、阳的符号分别是什么?64卦和二进制的关系式?

阴:--;阳:-;

64卦对应的是:六位二进制编码;信息量=6(bit)

3、什么是内容信息量?其公式是?(重要)例题

n

内容信息量:指代原像的多少,内容对应的状态数对数的个数;

计算公式为:I=log2N(bit),N为内容的可分辨状态数。

第七讲

1、什么是满指代、冗余?

满指代:每一个载体状态上都指代了内容。

冗余:载体里有一部分没有指代内容。

2、为什么符号集中的符号等概率使用时,符号集中的符号利用率最高?

根据Shannon熵公式极值性有

H(p1,,pN)≤H(11,,)=logNNN

由此可见,符号集中的符号等概率使用时,符号集中的符号利用率最高。

3、什么是符号集的概率模型?

模型:符号集状态可能性的模型。

条件概率:有事件A、B,其中P(A)>0,在A事件发生的条件下,B 事件发生的概率记为P(B/A)。

4、什么是信息熵?其公式、含义、单位(重要)例题

信息熵:有一定概率分布的符号集,在一个时空位上的平均载体信息量。

1(bit)公式:H(P)Pilog2Pii1

含义:符号集在一个时空位上平均载体信息量。Pi是符号某i出现的概率,n1是以Pi为等概Pi

率的符号集中符号的个数,log2

1是以Pi为等概率的符号集的载体信息量。Pi

第八讲

1、符号集的概率空间如何获得?举例说明。

概率空间由统计获得。

某P(某)1

P1某2P2n...某n,其中0≤Pi≤1,Pi=1。...Pni1

2、什么是Shannon第一定理?(重要)

给出了离散无记忆信源,无失真条件下,信息的压缩编码极限。设C 为载体信息量,Cc为需要传递的内容信息量,则通过信息编码得到的信源无失真的充要条件是:C≥Cc。

3、哈夫曼编码及其步骤?举例说明。(重要)大题

哈夫曼编码是一种编码方式,一种可变长编码。

步骤:

1)将信源符号集的N个符号概率从大到小排列;

2)用0和1代表两个概率最小的信源符号,0指代给二个符号中的大概率还是小概率可任

意选择,但编码过程中必须保持一致。将两个概率最小的符号合并成一个符号,合并后符号的概率为两个符号概率之和。将合并后的符号与原有符号组成新的符号集(N-1),这个新符号集称为缩减符号集;

3)将缩减信源符号集中的符号再按概率从大到小排列,并且用0、1表示两个概率最小的

符号。然后将这两个最小概率符号再合并成一个符号,和其余符号构成N-2的缩减符号集;

4)以此类推,最后缩减为只有两个符号的缩减符号,将0,1,赋于这两个字符;

5)从最后一个缩减符号回溯得到的二进制码序列即为哈夫曼编码。

4、哈夫曼编码的特点是什么?为什么哈夫曼编码能压缩数据?

特点:

1)可以保证概率大的信源符号对应短码,概率小的对应长码;

2)哈夫曼编码并非唯一;

3)哈夫曼编码对不同的信源的编码效率不同;

4)对信源进行哈夫曼编码后,形成一个哈夫曼编码表。

解码时,必须参照这一哈夫编码才能正确译码。

因为当载体信息量无限接近于内容信息量然后达到压缩极限就能压缩数据,数据压缩实质上是减少信息冗余量,冗余量的减少可以减少数据量而不减少信源的信息量。

第九、十讲

1、什么是物理信道?举例说明?(重要)

由物理实体构成的信道,如:双绞线、同轴电缆、光纤、空气、真空等。

2、什么是信息传输速率?

单位时间内在信道中传输的载体信息量,用Rt表示,单位:bit/

3、什么是无噪声物理信道容量?

物理信道内可达到的最大信息传输速率,用Cw表示,单位:bit/,Cw=ma某(Rt)

4、什么是噪声平均误码速率、有噪物理信道容量?

单位时间内,由于噪声干扰而产生的错误载体信息量,用RN表示,

单位:bit/单位时间内可正确接收的最大载体信息量,Cw=ma某(Rt-RN)bit/

5、决定有噪物理信道容量的因素是什么?(重要)

1)信道载体的时空位密度(与技术有关);

2)噪声水平(与环境有关)。

6、什么是数学信道?举例说明(重要)

数学信道:由数学模型决定的信道。举例对称信道

7、什么是信息传输码率?

在信道中一个时空位可传输的载体信息量,用R表示,单位为:bit/

时空位

8、什么是噪声平均错误码率?

在信道中,由噪声引起的一个时空位中的错误信息量,用RN表示,

单位bit/时空位。

9、什么是数学信道容量?

在数学信道中一个时空位最大可正确接收的载体信息量,用C表示,

单位为bit/时空位

10、什么是Shannon第二定理?(重要)

在有噪声数学信道中,无失真信道纠错编码存在的充要条件是R≤C,其中R为信息传输码率,C为信道容量,R=C为编码极限。

11、什么是奇偶检验码?举例说明,奇偶校验码能检几位错误码?能

纠错吗?(重要)大题一种通过增加冗余位使得码字中“1”的个数恒为奇

数或偶数的编码方法,它是一种检错码,是信道编码的一种。

例:需传赵-000、钱-100、孙-010、李-110、周-001、吴-101、郑-011、王-111,它们的奇偶检验码分别为赵-0000、钱-1001、孙-0101、李-1100、周-0011、吴-1010、郑-0110、王-1111

奇偶校验码可以检查出一位错误,不能纠错。

12、什么是重复码?举例说明。n次重复码(n为奇数)时可检出几

位错误码?可纠正几位?(重要)大题

重复码:各码字的码元是重复的,是信道编码的一种。

例:需传赵-000、钱-100、孙-010、李-110、周-001、吴-101、郑-011、王-111,它们的重复码分别为赵-000000000、钱-100100100、孙-010010010、李-110110110、周-001001001、吴-101101101、郑-011011011、王-111111111

n次重复码可以检出(n-1)位错,可纠正(n-1)/2位错

第十一讲

1、什么是失真?什么是失真误码码率?什么是限失真误码码率?(重要)

1)什么是失真?什么是失真误码码率?什么是限失真误码码率?

失真:信息序列中允许一定的错误时空位出现。

2)什么是失真误码码率?一个时空位上的平均误码信息量。用C表示,bit/时空位

3)什么是限失真误码码率?

一个时空位上允许的最大平均误码码率。用CD表示,bit/时空位

2、什么是Shannon第三定理?举例说明限失真的压缩编码。(重要)

第三定律:允许失真的信率压缩编码的极限。

C表示一个是时空位中的载体信息量,Cc表示一个时空位中的内容信

息量。

信源限失真编码存在的必要条件是:C≥CC-CD,其中C=CC-CD为编码

极限。令R(D)=Cc-Cd,R(D)称为信息率失真函数,其中D为失真度,则C≥R(D)例:1张图有1024某768个点,现在允许100个点失真,问:如何进行压缩编码?方法1:

1)从整个图中找出均匀的100个点,将这100个点去掉;

2)收到信号后用去掉点的前后点的平均值代替去掉的点。

从而恢复图像。

方法2:

在边缘取100个点,去掉后再恢复。

3、知识的定义(重要)

1)高级的信息,是加工后的信息;

2)规律的总结;

3)经验的总结;

4)概念之间的关联。

4、知识的分类?(重要)

1)自然科学:理科(物理、化学、数学)和工科(通讯、建筑、桥梁、化工);

2)社会科学:历史、地理、哲学、政治学、经济学、心理学。

5、知识可以用什么来表示?举例说明。

知识可以用:

1)数学符号;

2)文字和语言表示。

举例:苹果可以用英文、希腊文或者中文等表示;空间关系可以用几

何来表示。

6、什么是知识的结构?如何使一个人的知识结构适应社会?

公理化的知识结构:命题、实践

一个人所拥有的所有知识集合。

7、获得知识的方法(重要)

1)归纳法:不完全归纳法和完全归纳法,例:数学归纳法。

2)演绎法:从普遍性结论或一般性事理推导出个别性结论的论证方法。

3)类比法。

第十二讲

1、传感器的三个基本参量

1)感知域;

2)灵敏度;

3)保真度。

2、列举几种常用的传感器及其在生活中的应用

光敏传感器、声敏传感器、化学传感器、压力传感器等。

3、什么是模式识别?举例说明。

根据模式库中的模式与识别对象的比较,判断识别对象属于哪种模式的过程。

第十三讲

1、什么是控制论及其研究对象?

控制论:研究各种控制系统的共同规律和方法的一门学科。

研究对象:各种控制系统。

2、控制论的创始人是谁?

维纳

3、举例说明生活中常用的控制系统,并简单说明其工作原理。

P161水位控制系统、姿态控制器等等。

抽水马桶原理:使用抽水的时候,开关就会沉下去,抽水结束,水箱放水,开关就会浮上来。

4、什么是控制?控制系统的方框图及其整个工作原理是什么?

控制就是信息施效的过程。

方框图见笔记(有反馈的方框图)

第十四讲

1、什么是科学方法论?(重要)

研究人如何获得知识和能力的方法的一门学科。

2、方法论的分类(重要)

哲学分为:

1)自然科学方法论:数学、物理、化学方法论

2)社会科学方法论:历史学、地理学、经济学方法论

3、研究方法论的意义

事半功倍

对自然科学和社会科学的研究与发展都具有重要的指导意义。

4、历史上有哪几位重要的方法论科学家?(重要)

笛卡尔、牛顿、休谟、培根

笛卡尔的方法论:笛卡尔的方法论就是从推理中消除产生错误的因素

5、信息在方法研究里起的作用,并谈体会。

信息是研究方法论的前提

信息物质能量是信息三位一体的准则.

体会:在研究方法论的时,不能仅仅局限于物质和能量的观点来分析,更重要的是从信息的观点出发来进行分析,抓住事物运动的状态和状态变

化的方式.把事物运动过程看作是一个信息过程,弄清信息过程中的各个关系,从而建立一个能够反映该事物工作机制的信息模型.

用哈弗曼编码求:

红黄蓝绿紫红黄蓝绿0.50.30.10.10.40.250.20.10.05

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》习题参考答案 1. 信息是什么信息与消息有什么区别和联系 答:信息是对事物存在和运动过程中的不确定性的描述。信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。 2. 语法信息、语义信息和语用信息的定义是什么三者的关系是什么 答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。语用信息是信息的最高层次。它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。三者之间是内涵与外延的关系。 第2章 1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量 答:依据题意,这一随机事件的概率空间为 120.80.2X x x P ????=???????? 其中: 1 x 表示摸出的球为红球事件, 2 x 表示摸出的球是白球事件。 a)如果摸出的是红球,则获得的信息量是 ()()11log log0.8 I x p x =-=-(比特) b)如果摸出的是白球,则获得的信息量是 ()()22log log0.2 I x p x =-=-(比特) c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。则如此摸取n 次,红球出现的次数为 () 1np x 次,白球出现的次数为 () 2np x 次。随机摸取n 次后总共所获得信息量为 ()()()() 1122np x I x np x I x + d)则平均随机摸取一次所获得的信息量为 ()()()()()()()()()112211221 log log 0.72 H X np x I x np x I x n p x p x p x p x =+????=-+????=比特/次

信息论与编码总复习

“信息论与编码”总复习 1.消息、信号、信息的含义、定义及区别。 信息是指各个事物运动的状态及状态变化的方式。 消息是指包含信息的语言,文字和图像等。 信号是消息的物理体现。 消息是信息的数学载体、信号是信息的物理载体 信号:具体的、物理的 消息:具体的、非物理的 信息:非具体的、非物理的 同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。同样,同一类型信号或消息也可以代表不同内容的信息 2.信息的特征与分类。 1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容; 2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识; 3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理; 4信息是可以量度的,信息量有多少的差别。 3.狭义信息论、广义信息论、一般信息论研究的领域。 狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。 广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。 概率信息:信息表征信源的不定度,但它不等同于不定度,而是为了消除一定的不定度必须获得与此不定度相等的信息量 4.信息论的起源、历史与发展。 ?1924年,Nyquist提出信息传输理论; ?1928年,Hartly提出信息量关系; ?1932年,Morse发明电报编码; ?1946年,柯切尼柯夫提出信号检测理论; ?1948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权 威论文,为信息论的创立作出了独特的贡献。

信息理论与编码

信息理论与编码 第一讲 1、信息论与编码的关系(重要) 信息论研究的是编码极限,首先要通讯就要编码,编码有各种方法,选取好的,压缩数据,从编码有效性来说,数据最短的最好,信息论告诉我们什么样的情况数据最短。 2、编码与通讯的关系 通讯就是把信息从A点传到B点的过程,信息要进行传递必须把信息加载到一定载体上而把信息指代给载体的过程就是编码,如果要通讯就一定要进行编码。 3、什么是摩尔斯码? 摩尔斯码是人类第一个使用的编码,摩尔斯码是由点和划来表示常用的英文字母、标点符号以及10个阿拉伯数字的编码,通过这个编码就可以把通常的电报内容用电码形式传递出来。 4、SOS的含义 这三个救急信号是摩尔斯码里的“———”,不是英文缩写。 5、信息论的发展简史 1917年频分复用(载波); 1924年采样定理;模拟—数字信号 1932年摩尔斯电报系统;

1948年Shannon发表论文“通讯的数学理论”,从而“信息论”诞 生了。 6、什么是加密编码?举例说明。 7、编码需要解决通讯中的哪三个问题? 1)压缩数据; 2)检错和纠错; 3)通讯过程中的加密。 8.加密编码在信息通讯中的作用。举例说明(重要) 1)网上银行数字证书 2)二次世界大战美国人没有破译日本人的密码就会有更多人牺牲 IT时代信息的保密十分重要 1、什么是信息科学、信息论 信息科学是研究所有信息现象的一门学科,信息论研究通讯中的信息 传递、加密、压缩、纠错。 2、信息论和信息科学的关系、区别(重要) 信息论只要讲通讯里的信息处理问题(如信息传递、加密、收缩、纠错),范围窄;信息科学讲的是所有领域的信息处理问题,例如知识论等,范围广。信息论是信息科学中的一部分。 3、信息科学研究的范围和具体内容

信息论与编码第四版总结

信息论与编码第四版总结 信息论与编码是信息科学领域的重要课程,旨在研究信息的度量、传输和存储等问题。第四版教材在前三版的基础上,进一步深化了信息论和编码理论的内容,同时也引入了更多的实际应用案例。本总结将对该教材的内容进行概括和总结。 一、信息论基础 1. 信息的基本概念:教材首先介绍了信息的定义、度量和性质,强调了信息在决策和交流中的重要性。 2. 熵的概念:熵是信息论中的一个基本概念,用于描述随机事件的不确定性。教材详细介绍了离散和连续熵的概念和计算方法。 3. 信道容量:信道容量是信息传输中的极限性能,用于描述在理想条件下,信道能够传输的最大信息量。教材介绍了信道容量的计算方法和影响因素。 二、编码理论 1. 信源编码:信源编码的目标是减少信息中的冗余,从而减小存储和传输的代价。教材介绍了各种信源编码方法,如霍夫曼编码、算术编码等。 2. 信道编码:信道编码是为了提高信息传输的可靠性而采取的措施。教材详细介绍了常见的信道编码方法,如奇偶校验、里德-所罗门码等。 3. 纠错编码:纠错编码是信道编码的一个重要分支,能够实现信息传输的错误检测和纠正。教材介绍了常见的纠错编码方法,如循环冗余校验、LDPC(低密度奇偶校验)等。 三、实际应用 教材通过实际案例,展示了信息论与编码理论在通信、数据压缩、网络安全等领域的应用。例如,通过分析无线通信中的信道特性,得出信道容量和编码方案的选择;通过数据压缩算法的比较,得出适合特定应用的编码方法;通过网络安全中的错误检测和纠正技术,提高网络通信的可靠性。 四、总结

第四版信息论与编码教材在前三版的基础上,进一步深化了信息论和编码理论的内容,引入了更多的实际应用案例。通过学习该教材,我们可以掌握信息论的基本概念和熵的计算方法,了解信源编码、信道编码和纠错编码的方法和原理,并掌握信息论与编码理论在通信、数据压缩、网络安全等领域的应用。 总之,信息论与编码是一门非常重要的课程,对于理解信息的度量、传输和存储等问题具有重要意义。通过学习第四版教材,我们可以更好地掌握信息论与编码的理论知识和实际应用技能。

《信息论与编码》课程论文

《信息论与编码》课程小结

《信息论与编码》课程小结 信息论是信息科学的主要理论基础之一,它是在长期通信工程实践和理论基础上发展起来的。信息论是应用概率论、随机过程和数理统计和近代代数等方法,来研究信息的存储、传输和处理中一般规律的学科。它的主要目的是提高通信系统的可靠性、有效性和安全性,以便达到系统的最优化。编码理论与信息论紧密关联,它以信息论基本原理为理论依据,研究编码和译码的理论知识和实现方法。 通过《信息论与编码》课程的学习,得到了以下总结: 一、信息论的基本理论体系 1948年,香农在贝尔系统技术杂志上发表“通信的数学理论”。在文中,他用概率测度和数理统计的方法系统地讨论了通信的基本问题,得出了几个重要而带有普遍意义的结论,并由此奠定了现代信息论的基础。香农理论的核心是:揭示了在通信系统中采用适当的编码后能够实现高效率和高可靠地传输信息,并得出了信源编码定理和信道编码定理。从数学观点看,这些定理是最优编码的存在定理。但从工程观点看,这些定理不是结构性的,不能从定理的结果直接得出实现最优编码的具体方法。然而,它们给出了编码的性能极限,在理论上阐明了通信系统中各种因素的相互关系,为寻找最佳通信系统提供了重要的理论依据。对信息论的研究内容一般有以下三种理解: (1) 狭义信息论,也称经典信息论。它主要研究信息的测度、信道容量以及信源和信道编码理论等问题。这部分内容是信息论的基础理论,又称香农基本理论。 (2) 一般信息论,主要是研究信息传输和处理问题。除了香农理论以外,还包括噪声理论、信号滤波和预测、统计检测与估计理论、调制理论、信息处理理论以及保密理论等。后一部分内容以美国科学家维纳(N.Wiener)为代表,其中最有贡献的是维纳和苏联科学家柯尔莫哥洛夫。 (3) 广义信息论。广义信息论不仅包括上述两方面的内容,而且包括所有与信息有关的自然和社会领域,如模式识别、计算机翻译、心理学、遗传学、神经生理学、语言学、语义学甚至包括社会学中有关信息的问题,是新兴的信息科学理论。

信息理论与编码

信息理论与编码 信息理论与编码是通信领域中的两个非常重要的学科,它们的发展对于现代通信技术的发展起到了至关重要的作用。本文将从信息的概念入手,分别介绍信息理论和编码理论的基本概念、发展历程、主要应用以及未来发展的前景和挑战。 一、信息的概念 信息可以理解为一种可传递的事实或知识,它是任何通信活动的基础。信息可以是文字、图像、音频、视频等形式,其载体可以是书本、报纸、电视、广告、手机等媒介。信息重要性的意义在于它不仅可以改变人的思想观念、决策行为,还可以推动时代的发展。 二、信息理论 信息理论是由香农在1948年提出的,目的是研究在通信过程 中如何尽可能地利用所传输的信息,以便提高通信的效率和容错性。信息理论的核心是信息量的度量,即用信息熵来度量信息的多少。信息熵越大,信息量越多,反之就越少。比如一篇内容丰富的文章的信息熵就比较大,而一张黑白的图片的信息熵就比较小。同时,信息熵还可以用来计算信息的编码冗余量,从而更好地有效利用信道带宽。 信息理论具有广泛的应用,特别是在数字通信系统中,例如压缩编码、纠错编码、调制识别等。通过利用信息理论的相关技术,我们可以在有限的带宽、时间和功率条件下,实现更高效

的数据传输。 三、编码理论 编码理论是在通信领域中与信息理论密切相关的一门学科。其核心在于如何将所传输的信息有效地编码,以便提高信息的可靠性和传输效率。编码技术主要分为三类:信源编码、信道编码和联合编码。 信源编码,也称数据压缩,是通过无损压缩或有损压缩的方式将数据压缩到最小,以便更加高效地传输和存储。常见的信源编码算法有赫夫曼编码、算术编码、LZW编码等。 信道编码则是为了提高错误率而采用的一种编码方法。通过添加冗余信息,例如校验和、海明码等技术,可以实现更高的错误检测和纠正能力。 联合编码则是信源编码和信道编码的组合。它的核心思想是将信源编码和信道编码结合起来,以得到更加高效的编码效果。 编码理论在现代通信系统中具有广泛的应用,包括数字电视、移动通信、卫星通信、互联网数据传输等。 四、信息理论与编码的发展历程 信息理论和编码理论的发展过程可以追溯到上世纪40年代。在此期间,许多科学家都对信息的分发和传输产生了浓厚的兴趣。有一个重要的契机是第二次世界大战中的通信需求,这促

信息论与编码理论课后答案

信息论与编码理论课后答案 【篇一:《信息论与编码》课后习题答案】 式、含义和效用三个方面的因素。 2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长 篇论文,从而创立了信息论。 3、按照信息的性质,可以把信息分成语法信息、语义信息和语用 信息。 4、按照信息的地位,可以把信息分成客观信息和主观信息。 5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用 各种各样的信息。 6、信息的是建立信息论的基础。 7、 8、是香农信息论最基本最重要的概念。 9、事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般 用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量, 定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是。 14、不可能事件的自信息量是 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的 熵的。 limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。 20、一维连续随即变量x在[a,b] 。 1log22?ep 21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。

22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p 25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。 27 28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?1 1?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学 2期望,则x的信源熵c。 30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信 2源熵为。 31信道。 32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 33、具有一一对应关系的无噪信道的信道容量。 34、强对称信道的信道容量。 35、对称信道的信道容量。 36、对于离散无记忆信道和信源的n次扩展,其信道容量cn= 。xh(x)?logmelog52 37、对于n个对立并联信道,其信道容量 cn = 。 38、多用户信道的信道容量用多维空间的一个区域的界限来表示。 39、多用户信道可以分成几种最基本的类型:多址接入信道、广播信道和相关信源信道。 40、广播信道是只有一个输入端和多个输出端的信道。 41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道。 ?ck?1nk p1log2(1?x)2pn。 42、高斯加性信道的信道容量c= 43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是信息率小于信道容量。 ?1/21/20??0?01??代表的信道的信道容量。 44、信道矩阵 ?10??10????01??代表的信道的信道容量。 45、信道矩阵?

《信息论与编码理论》(王育民 李晖 梁传甲)课后习题答案 高等教育出版社

信息论与编码理论习题解 第二章-信息量和熵 2.1解: 平均每个符号长为:15 4 4.0312.03 2= ⨯+⨯秒 每个符号的熵为9183.03log 3 1 23log 32=⨯+⨯比特/符号 所以信息速率为444.34 15 9183.0=⨯比特/秒 2.2 解: 同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6 比特; 所以信息速率为600010006=⨯比特/秒 2.3 解:(a)一对骰子总点数为7的概率是 36 6 所以得到的信息量为 585.2)36 6(log 2= 比特 (b) 一对骰子总点数为12的概率是36 1 所以得到的信息量为 17.536 1 log 2= 比特 2.4 解: (a)任一特定排列的概率为 ! 521 ,所以给出的信息量为 58.225! 521 log 2 =- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 1352 13 13 521344!13C A =⨯ 所以得到的信息量为 21.134 log 1313 52 2=C 比特. 2.5 解:易证每次出现i 点的概率为 21 i ,所以

比特比特比特比特比特比特比特398.221 log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21 log )(26 12=-==============-==∑ =i i X H x I x I x I x I x I x I i i i x I i 2.6 解: 可能有的排列总数为 27720! 5!4!3! 12= 没有两棵梧桐树相邻的排列数可如下图求得, Y X Y X Y X Y X Y X Y X Y X Y 图中X 表示白杨或白桦,它有⎪⎪⎭ ⎫ ⎝⎛37种排法,Y 表示梧桐树可以栽种的位置,它有⎪⎪⎭⎫ ⎝⎛58种排法,所以共有⎪⎪⎭⎫ ⎝⎛58*⎪⎪⎭⎫ ⎝⎛37=1960种排法保证没有 两棵梧桐树相邻,因此若告诉你没有两棵梧桐树相邻时,得到关于树排列的信息为1960log 27720log 22-=3.822 比特 2.7 解: X=0表示未录取,X=1表示录取; Y=0表示本市,Y=1表示外地; Z=0表示学过英语,Z=1表示未学过英语,由此得

信息论与编码[第五章无失真信源编码定理与编码]山东大学期末考试知识点复习

第五章无失真信源编码定理与编码 5.1.1 信源编码和码的类型 1.信源编码 2.码的类型 若码符号集中符号数r=2称为二元码,r=3称为三元码,……,r元码。 若分组码中所有码字的码长都相同则称为等长码,否则称为变长码。 若分组码中所有码字都不相同则称为非奇异码,否则称为奇异码。 若每个码符号x i∈X的传输时间都相同则称为同价码,否则称为非同价码。 若分组码的任意一串有限长的码符号只能被唯一地译成所对应的信源符号序列则称为唯一可译码,否则称为非唯一可译码。 若分组码中,没有任何完整的码字是其他码字的前缀,则称为即时码(又称非延长码或前缀条件码),否则称为延长码。 本章主要研究的是同价唯一可译码. 5.1.2 即时码及其树图构造法 即时码(非延长码或前缀条件码)是唯一可译码的一类子码。 即时码可用树图法来构造。构造的要点是: (1)最上端为树根A,从根出发向下伸出树枝,树枝总数等于r,树枝的尽

头为节点。 (2)从每个节点再伸出r枝树枝,当某节点被安排为码字后,就不再伸枝,这节点为终端节点。一直继续进行,直至都不能伸枝为止。 (3)每个节点所伸出的树枝标上码符号,从根出发到终端节点所走路径对应的码符号序列则为终端节点的码字。 即时码可用树图法来进行编码和译码。 从树图可知,即时码可以即时进行译码。 当码字长度给定,即时码不是唯一的。 可以认为等长唯一可译码是即时码的一类子码。 5.1.3 唯一可译码存在的充要条件 (1)对含有q个信源符号的信源用含r个符号的码符号集进行编码,各码字的码长为l1,l2,…,l q的唯一可译码存在的充要条件是,满足Kraft不等式 5.1.4 唯一可译码的判断法 唯一可译码的判断步骤: 首先,观察是否是非奇异码.若是奇异码则一定不是唯一可译码。 其次,计算是否满足Kraft不等式。若不满足一定不是唯一可译码。 再次,将码画成一棵树图,观察是否满足即时码的树图的构造,若满足则是唯一可译码。 或用Sardinas和Patterson设计的判断方法:计算出分组码中所有可能的尾

信息理论与编码答案 人民邮电出版社

第一章 自我测试题 一、填空题 1. 在认识论层次上研究信息的时候,必须同时考虑到形式、__语义___和__语用___三个方面的因素。 2. 如果从随机不确定性的角度来定义信息,信息是用以消除__随机不确定性___的东西。 3. 信源编码的结果是__减小_冗余;而信道编码的手段是__增加___冗余。 4. _1948_年,香农发表了著名的论文__通信的数学理论__,标志着信息论诞生。 5. 信息商品是一种特殊商品,它有__保存性_性、_共享_性、_老化可能_性和 知识创造性 等特征。 二、判断题 1. 信息传输系统模型表明,噪声仅仅来源于信道(×) 2. 本体论层次信息表明,信息不依赖于人而存在(√) 3. 信道编码与译码是一对可逆变换(×) 4. 1976年,论文《密码学的新方向》的发表,标志着保密通信研究的开始(×) 5. 基因组序列信息的提取和分析是生物信息学的研究内容之一(√) 三、选择题 1. 下列表述中,属于从随机不确定性的角度来定义信息的是__D___ A . 信息是数据 B . 信息是集合之间的变异度 C . 信息是控制的指令 D . 信息是收信者事先不知道的报道 2. ___B__是最高层次的信息 A . 认识论 B . 本体论 C . 价值论 D . 唯物论 3. 下列不属于狭义信息论的是__D___ A . 信息的测度 B . 信源编码 C . 信道容量 D . 计算机翻译 4. 下列不属于信息论的研究内容的是__A___ A . 信息的产生 B . 信道传输能力 C . 文字的统计特性 D . 抗干扰编码 5. 下列关于信息论发展历史描述不正确的是__B___ A . 偶然性、熵函数引进物理学为信息论的产生提供了理论前提。 B . 1952年,香农发展了信道容量的迭代算法 C . 哈特莱用消息可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。 D . 1959年,香农首先提出率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。 四、简答题 给定爱因斯坦质能方程2 E mc D =D ,试说明该方程所传达的语法信息、语义信息和语用信息。 语法信息:就是该方程中各个字母、符号的排列形式。 语义信息:E D 为所产生的能量,m D 为质量的变化,2 c 为光速的平方,=表示左右在量值上相等。综合起来就是,质量的微小变化可以产生巨大的能量。 语用信息:该方程可以启发主体在一定条件下,通过物质质量的变化来产生巨大的能量,如果让能量缓慢释放出来,可以得到核能;如果让能量瞬间释放出来,可借以制造核弹。

信息理论及编码参考答案

2.3 一副充分洗乱的牌〔含52〕,试问: 〔1〕任一特定排列所给出的不确定性是多少? 〔2〕随机抽取13牌,13牌的点数互不一样时的不确定性是多少? 解:〔1〕52扑克牌可以按不同的顺序排列,所有可能的不同排列数就是全排列种数,为 因为扑克牌充分洗乱,任一特定排列出现的概率相等,设事件A 为任一特定排列,则其发生概率为 可得,该排列发生所给出的信息量为 ()()22log log 52225.58I A P A =-=!≈ bit 67.91≈ dit 〔2〕设事件B 为从中抽取13牌,所给出的点数互不一样。 扑克牌52中抽取13,不考虑排列顺序,共有13 52C 种可能的组合。13牌点数互不一样 意味着点数包括A ,2,…,K ,而每一种点数有4种不同的花色意味着每个点数可以取4中花色。所以13牌中所有的点数都不一样的组合数为13 4。因为每种组合都是等概率发生的,所以 则发生事件B 所得到的信息量为 ()()13 213524log log 13.208I B P B C =-=-≈ bit 3.976≈ dit 2.5 设在一只布袋中装有100只对人手的感觉完全一样的木球,每只上涂有1种颜色。100只球的颜色有以下三种情况: (1) 红色球和白色球各50只; (2) 红色球99只,白色球1只; (3) 红,黄,蓝,白色各25只。 求从布袋中随意取出一只球时,猜想其颜色所需要的信息量。 解:猜想木球颜色所需要的信息量等于木球颜色的不确定性。令 R ——"取到的是红球〞,W ——"取到的是白球〞, Y ——"取到的是黄球〞,B ——"取到的是蓝球〞。 〔1〕假设布袋中有红色球和白色球各50只,即 则 ()()2 21 log log 212 I R I W ==-== bit 〔2〕假设布袋中红色球99只,白色球1只,即 则 ()()22log log 0.990.0145I R P R =-=-= bit ()()22log log 0.01 6.644I W P W =-=-=bit 〔3〕假设布袋中有红,黄,蓝,白色各25只,即 则 ()()()()2 1 log 24 I R I Y I B I W ====-= bit 2.7 设信源为 求()()62 log i i i P x P x - ∑,井解释为什么()()622 log log 6i i i P x P x ->∑,不满足信源熵的

信息论与编码理论习题答案全解

信息论与编码理论习题答案全解

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit 因此,信息速率为 6⨯1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少 信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ⨯=1352 13 4C 信息量=1313 524log log -C =13.208 bit

即)0;(1u I ,)00;(1u I ,)000;(1u I ,)0000;(1u I )0(p =4)1(81⨯-p +481⨯p =2 1 )0;(1u I =) 0()|0(log 1p u p =2 11log p -=1+)1log(p - bit )00(p =]2)1(4)1(2[8122p p p p +-+-=4 1 )00;(1u I =)00()|00(log 1p u p =4/1)1(log 2 p -=)]1log(1[2p -+ bit )000(p =])1(3)1(3)1[(813223p p p p p p +-+-+-=8 1 )000;(1u I =3[1+)1log(p -] bit )0000(p =])1(6)1[(8 1 4224p p p p +-+- )0000;(1u I =4 2244 )1(6)1()1(8log p p p p p +-+-- bit 2.12 计算习题2.9中);(Z Y I 、);(Z X I 、);,(Z Y X I 、)|;(X Z Y I 、)|;(Y Z X I 。 解:根据题2.9分析 )(Z H =2(216log 2161+3216log 2163+6216log 2166+10 216log 21610+ 15216log 21615+21216log 21621+25216log 21625+27 216 log 21627) =3.5993 bit );(Z Y I =)(Z H -)|(Y Z H =)(Z H -)(X H =1.0143 bit );(Z X I =)(Z H -)|(X Z H =)(Z H -)(Y H =0.3249 bit );,(Z Y X I =)(Z H -)|(XY Z H =)(Z H -)(X H =1.0143 bit

信息理论与编码-期末试卷A及答案

一、填空题(每空1分,共35分) 1、1948年,美国数学家 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。信息论的基础理论是 ,它属于狭义信息论。 2、信号是 的载体,消息是 的载体。 3、某信源有五种符号}{,,,,a b c d e ,先验概率分别为5.0=a P ,25.0=b P ,125.0=c P ,0625 .0==e d P P , 则符号“a ”的自信息量为 bit ,此信源的熵为 bit/符号。 4、某离散无记忆信源X ,其概率空间和重量空间分别为1 234 0.50.250.1250.125X x x x x P ⎡⎤⎡⎤=⎢⎥⎢ ⎥⎣⎦⎣⎦ 和12 34 0.512 2X x x x x w ⎡⎤⎡⎤ =⎢⎥⎢⎥⎣⎦⎣ ⎦ ,则其信源熵和加权熵分别为 和 。 5、信源的剩余度主要来自两个方面,一是 ,二是 。 6、平均互信息量与信息熵、联合熵的关系是 。 7、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 信道。 8、马尔可夫信源需要满足两个条件:一、 ; 二、 。 9、若某信道矩阵为⎥⎥⎥⎥⎦ ⎤⎢⎢⎢⎢ ⎣⎡01000 1 000001 100,则该信道的信道容量C=__________。 10、根据是否允许失真,信源编码可分为 和 。 11、信源编码的概率匹配原则是:概率大的信源符号用 ,概率小的信源符号用 。(填 短码或长码) 12、在现代通信系统中,信源编码主要用于解决信息传输中的 性,信道编码主要用于解决信息传输中的 性,保密密编码主要用于解决信息传输中的安全性。 13、差错控制的基本方式大致可以分为 、 和混合纠错。 14、某线性分组码的最小汉明距dmin=4,则该码最多能检测出 个随机错,最多能纠正 个随机错。 15、码字101111101、011111101、100111001之间的最小汉明距离为 。 16、对于密码系统安全性的评价,通常分为 和 两种标准。 17、单密钥体制是指 。 18、现代数据加密体制主要分为 和 两种体制。 19、评价密码体制安全性有不同的途径,包括无条件安全性、 和 。 20、时间戳根据产生方式的不同分为两类:即 和 。 二、选择题(每小题1分,共10分) 1、下列不属于消息的是( )。 A. 文字 B. 信号 C. 图像 D. 语言 2、设有一个无记忆信源发出符号A 和B ,已知4341)(,)(==B p A p ,发出二重符号序列消息的信源, 无记忆信源熵)(2X H 为( )。 A. 0.81bit/二重符号 B. 1.62bit/二重符号 C. 0.93 bit/二重符号 D . 1.86 bit/二重符号 3、 同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为( )。 A. -log36bit B. log36bit C. -log (11/36)bit D. log (11/36)bit 4、 二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,x0: 发出一个0 、 x1: 发出一个1、 y0 : 收到一个0、 y1: 收到一个1 ,则已知收到的符号,被告知发出的符号能得到的信息量是( )。 A. H(X/Y) B. H(Y/X) C. H( X, Y) D. H(XY) 5、一个随即变量x 的概率密度函数P(x)= x /2,V 20≤≤x ,则信源的相对熵为( )。 A . 0.5bit B. 0.72bit C. 1bit D. 1.44bit

信息论与编码理论习题答案

第二章 信息量和熵 2.2八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信 息速率. 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit 因此,信息速率为 6⨯1000=6000 bit/s 2。3 掷一对无偏骰子,告诉你得到的总的点数为:(a ) 7; (b) 12。问各得到 多少信息量. 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2。585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5。17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a ) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ⨯=1352 13 4C 信息量=1313 524log log -C =13。208 bit

2.9随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点 数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、 )|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立,则 1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2⨯( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3。2744 bit )|(Y X H =)(X H —);(Y X I =)(X H —[)(Y H —)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H —)(Y H =1.8955 bit 或)|(Y X H =)(XY H —)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H —)(Y H =1.8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2。585=4.4805 bit 2.10 设一个系统传送10个数字,0,1,…,9。奇数在传送过程中以0.5的概率错 成另外一个奇数,其余正确接收,求收到一个数字平均得到的信息量。 解: 8,6,4,2,0=i √ );(Y X I =)(Y H -)|(X Y H 因为输入等概,由信道条件可知,

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》,答案,考试重点(1--3 章) https://www.360docs.net/doc/3e19238400.html,work Information Technology Company.2020YEAR

《信息理论与编码》习题参考答案 1. 信息是什么信息与消息有什么区别和联系 答:信息是对事物存在和运动过程中的不确定性的描述。信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。 2. 语法信息、语义信息和语用信息的定义是什么三者的关系是什么 答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。语用信息是信息的最高层次。它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。三者之间是内涵与外延的关系。 第2章 1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量? 答:依据题意,这一随机事件的概率空间为 120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 其中: 1 x 表示摸出的球为红球事件, 2 x 表示摸出的球是白球事件。 a)如果摸出的是红球,则获得的信息量是 ()()11log log0.8 I x p x =-=-(比特) b)如果摸出的是白球,则获得的信息量是 ()()22log log0.2I x p x =-=-(比特) c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。则如此摸取n 次,红球出现的次数为 () 1np x 次,白球出现的次数为 () 2np x 次。随机摸取n 次 后总共所获得信息量为 ()()()() 1122np x I x np x I x + d)则平均随机摸取一次所获得的信息量为 ()()()()()()()()()112211221 log log 0.72 H X np x I x np x I x n p x p x p x p x =+⎡⎤⎣ ⎦=-+⎡⎤⎣⎦=比特/次

《信息理论与编码》-答案-考试重点(1--3章)

《信息理论与编码》习题参考答案 1. 信息是什么?信息与消息有什么区别和联系? 答:信息是对事物存在和运动过程中的不确定性的描述。信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。 2. 语法信息、语义信息和语用信息的定义是什么?三者的关系是什么? 答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。语用信息是信息的最高层次。它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。三者之间是内涵与外延的关系。 第2章 1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量? 答:依据题意,这一随机事件的概率空间为 120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 其中: 1 x 表示摸出的球为红球事件, 2 x 表示摸出的球是白球事件。 a)如果摸出的是红球,则获得的信息量是 ()()11log log0.8 I x p x =-=-(比特) b)如果摸出的是白球,则获得的信息量是 ()()22log log0.2 I x p x =-=-(比特) c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。则如此摸取n 次,红球出现的次数为 () 1np x 次,白球出现的次数为 () 2np x 次。随机摸取n 次后总共所获得信息量为 ()()()() 1122np x I x np x I x + d)则平均随机摸取一次所获得的信息量为 ()()()()()()()()()112211221 log log 0.72 H X np x I x np x I x n p x p x p x p x =+⎡⎤⎣ ⎦=-+⎡⎤⎣⎦=比特/次 2. 居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 答:设事件A 为女孩是大学生;设事件B 为女孩身高1.6米以上。

相关主题
相关文档
最新文档