信息论基础教学大纲

信息论基础教学大纲
信息论基础教学大纲

《信息论基础》课程教学大纲

课程编号:

总学时数:48

总学分数:3

课程性质:专业必修课

适用专业:

一、课程的任务和基本要求:

信息论基础即香农信息论是研究信息处理的数学规律性的数学理论分支之一,是以概率论和随机过程为主要工具研究通信系统极限性能的科学理论。重点解决关于信息传输的有效性和可靠性的理论问题,是信息科学与相关专业的必修专业课程。

本课程的指导思想是既要到理论的严谨性,更要考虑本专业的实用性,既要求掌握基本原理,又要求了解新理论与新技术。

通过该门课程的学习,期望学生能较好地理解香农信息论的基本思想与基本原理,掌握几个基本运算方法,培养学生利用信息论的基本原理分析和解决实际问题能力,从而提高学生的数学素质,加强学生开展科研工作能力。为今后进行更深入的研究奠定良好的理论基础。

二、基本内容和要求:

第1章绪论

§1.1 基本概念

§1.2 数字通信系统模型

§1.3 信息论与编码理论研究的主要内容和意义

要求:理解信息论的形成与发展,通信系统模型,掌握信源、信宿、信道、信息、消息、信号等基本概念,了解通信系统信源编码器、信道编码器有关基本原理及功能。

第2章信源及其熵

§2.1 信源的数学模型和分类

§2.2 离散信源的信息熵及其性质

§2.3 离散无记忆信源的扩展信源

§2.4 离散平稳信源

§2.5 连续信源的信息熵

§2.6 信源的冗余度

§2.7 离散无失真信源编码定理

要求:理解信源的分类与描述方式,掌握自信息量、信源熵、互信息等相关的基本概念、公式以及熵的基本性质,了解最大熵定理及其冗余度的相关问题。

第3章信道及其容量

§3.1 信道的数学模型与分类

§3.2 信道疑义度与平均互信息

§3.3 离散无记忆的扩展信道

§3.4 离散信道的信道容量

§3.5 连续信道的信道容量

§3.6 信源与信道的匹配

§3.7 信道编码定理

要求:理解信道模型及其相关的实际信道,掌握信道容量的概念并会计算各种信道的信道容量。了解香农公式、香农第二编码定理——信道编码定理。

第4章信息率失真函数

4.1 失真测试

4.2 信息率失真函数及其性质

4.3 离散无记忆信源的信息率失真函数

4.4 连续无记忆信源的信息率失真函数

4.5 保真度准则下的信源编码定理

要求:掌握信息率失真函数,失真的度量,了解率失真定理,即香农第三定理及率失真函数的计算。

第5章信源编码

5.1 编码器和相关概念

5.2 变长编码

5.3 限失真信源编码

5.4 实用信源编码方法

要求:理解无失真信源编码的编码定义,掌握最佳编码以及相关的编码方法,给出编码效率。了解无失真信源的定长及变长编码定理。

第6章信道编码

6.1 信道编码的概念

6.2 线性分组码

6.3 循环码

6.4 卷积码

要求:掌握线性分组码的概念、编码方法、生成矩阵及效验矩阵。掌握卷积的编码方法及维比特译码算法。掌握线性分组码的伴随式与标准阵列译码表。了解差错控制及编、译码的基本原理。

三、实践环节和要求:无

四、教学时数分配:

五、其它项目(含课外学时内容):无

六、有关说明:

1、教学和考核方式:

本课程属考试课,考核方式为闭卷。平时占30%,期末占70%。

2、习题:

根据教学内容完成每章节的部分基本习题,约占总题量的50%。

3、能力培养要求:

通过该门课程的学习,就是让学生能很好地理解香农信息论的基本思想与基本原理,掌握运算方法,培养学生利用信息论的基本原理分析和解决实际问题能力,为今后进行更深入的研究奠定良好的理论基础。

4、与其它课程和教学环节的联系:

先修课程和教学环节:高等数学、概率论

后续课程和教学环节:密码学、数据压缩理论、数字图像处理技术

平行开设课程和教学环节:随机过程

5、教材和主要参考书目:

(1)教材:信息论与编码技术冯桂、林其伟、陈东华编著清华大学出版社,2007 (2)主要参考书目:

①信息论——基础理论与应用傅祖云、赵建中电子工业出版社,2001;

②信息论与编码陈运、周亮、陈新电子工业出版社,2002;

③信息论基础周荫清北京航空航天大学出版社,1993;

《信息论基础A》(清华)复习资料

信息论基础A 复习资料 作者 郝仁 第一章 概论 ● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。目前,信息论中主要研究语法信息 ● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数 2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法 ● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。 信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。 第二章 离散信源及离散熵 ● 单符号离散信源的数学模型:1 212()()()()n n x x x X P x P x P x P X ?? ??=? ??????? L L 自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley) 自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。 ● 单符号离散信源的离散熵: 1()[()]()()n i i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。 离散熵的性质和定理:H(X)的非负性;H(X)的上凸性;

信息论基础及答案

《信息论基础》试卷第1页 《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞-∞ ?→∞ --?? ) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x - )时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或 1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此 时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

基础信息论

参考文献 1..C.E.Shannon. A Mathematical Theory of Communication. Bell System Technical Journal Vol 27 partⅠJuly 1948, pp 379-423;part Ⅱoct 1948,pp623-656 2.https://www.360docs.net/doc/274243093.html,munication in the presence of noise.proc I.R.E.1949 37 P10 3.张宏基编著《信源编码》北京,人民邮电出版社,1979 4.林可祥、汪一飞编著《偽随机码的原理与应用》北京,人民邮电出版社,1978 5.钟义信编著《信息科学原理》北京,北京邮电大学出版社,1996 6.孟庆生编著《信息论》西安,西安交通大学出版社,1986 7.仇佩亮编著《信息论及其应用》杭州,浙江大学出版社,2000 8.朱雪龙编著〈应用信息论基础〉北京,清华大学出版社,2001 9.陈运编著《信息工程理论基础》成都,电子科技大学。1989 10.王新梅、肖国镇编著《纠错码—原理与方法》(修订版)西安,西安电子科技大学出版社,2001年修订版 11.E.Schruefer.Signal-verarbeitung.Muenchen Wien:Carl:Hanser Verlag,1992 12.张应中等编著《数字通信工程基础》北京,人民邮电出版社,1987 13.贾世楼编著《信息论理论基础》哈尔滨,哈尔滨工业大学出版社,2001 14.陈运等编著《信息论与编码》北京,电子工业出版社,2002 15.傅祖芸编著《信息论》北京,电子工业出版社,2001

信息论基础与编码复习2

信息论基础与编码复习 一、已知信源??? ???=??????5.05.02 1x x P X 接到信道??? ? ? ?=8.02 .002.098.0)|(X Y P 上,求在该信道上传输的平均互信息量);(Y X I 、疑义度)|(Y X H ,噪声熵)|(X Y H 和联合熵)(XY H 。 参考答案:不要求计算结果,只要与出公式,每份5分,共20分 ()()(|)P Y P X P Y X = )|(X Y H =-2 2 211()log (|)i j j i i j p x y p y x ==∑∑ )|(Y X H =-2 2211()log (|)i j i j i j p x y p x y ==∑∑ )(XY H =-2 2 211 ()log ()i j i j i j p x y p x y ==∑∑ );(Y X I =()()()H X H Y H XY +- 二、一维随机变量X 在区间],[b a 内均匀分布,试求此连续信源的熵)(x H c 。 参考答案: 1 222()()log ()log ()log ()b c b a a H X p x p x dx b a dx b a +∞ --∞ =-=-=-? ? (bit ) (10分) 三、一维随机变量X 的取值是),(+∞-∞,其概率密度函数为2 22)(2 21)(σμπσ -- =x e x p (高斯 信道),试求此连续信源的熵)(x H c 。 参考答案:()EX xp x dx μ+∞ -∞ = =? 22()()DX x p x dx μσ+∞ -∞ =-=? (5分) 2 122()()log ()log (2)c H X p x p x dx e πσ+∞ -∞ =-=? (bit ) (10分) 五、一个三状态马尔可夫信源的转移概率矩阵为??? ? ? ??=412 14 1212 1 2 12 100 P ,请绘制状态转移图,并求该马尔可夫信源的稳态分布。( 10 分) 参考答案:1、绘制状态转移图 (5分) 2、稳态分布7 31)(= s P ,722)(=s P ,72 3)(=s P (5分)

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

信息论复习提纲

第一章 1、信息的概念。 信息是事物运动状态或存在方式的不确定性的描述。 2、信息论的研究对象、研究目的。 对象:通信系统模型。 目的:找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统最优化。 3、通信系统模型的组成,及各部分的功能 (1)信息源:产生消息的源,消息可以是文字,语言,图像。可以离散,可以连续。随机发生。 (2)编码器: 信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性 信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性(3)信道:信号从发端传到收端的介质 (4)译码器:译码就是把信道输出(已叠加了干扰)的编码信号进行反变换。 (5)信宿:信宿是消息传送的对象,即接受消息的人或机器。 (6)干扰源:系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声,主要研究的是统计特性。 4、消息,信号,信息三者之间的关系 信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。 信号---则是抽象信息在物理层表达的外延; 消息---则是抽象信息在数学层表达的外延 第二章 1、信源的分类,着重单符号信源。信源的概率空间的构成形式。 单消息(符号)信源,离散信源,连续变量信源,平稳信源,无/有记忆信源,马尔可夫信源,随机波形信源。 单消息(符号)信源: 单消息(符号)信源--离散信源 单消息(符号)信源--连续信源 2、自信息的计算及物理含义,单位与底数的关系,含义。 计算: 含义:当事件ai发生以前,表示事件ai发生的不确定性 当事件ai发生以后表示事件ai所含有(所提供)的信息量 单位与底数的关系: 通信与信息中最常用的是以2为底,这时单位为比特(bit); 理论推导中用以e为底较方便,这时单位为奈特(Nat); 工程上用以10为底较方便,这时单位为哈特(Hart)。 它们之间可以引用对数换底公式进行互换。比如: 1 bit = 0.693 Nat = 0.301 Hart

信息论的应用

学号:201122010835 姓名:李毅 信息论在图像处理中的应用 摘要:把信息论的基本原理应用到图像处理中具有十分重要的价值。本文主要从评估图像捕捉部分性能的评估、图像分割算法这两个个方面阐述信息论在图像处理中的应用。 通过理论分析来说明使用信息论的基本理论对图像处理的价值。 关键字:信息论;图像捕捉;图像分割 第1章 引言 随着科学技术的不断发展,人们对图形图像认识越来越广泛,图形图像处理的应用领域也将随之不断扩大。为了寻找快速有效的图像处理方法,信息理论越来越多地渗透到图像处理技术中。文章介绍了信息论基本理论在图像处理中的应用,并通过理论分析说明其价值。把通信系统的基本理论信息论应用于采样成像系统,对系统作端到端的系统性能评价,从而优化采样成像系统的设计,是当前采样成像系统研究的分支之一。有些图像很繁杂,而我们只需要其中有意义的一部分,图像分割就是将图像分为一些有意义的区域,然后对这些区域进行描述,就相当于提取出某些目标区域图像的特征,随后判断这些图像中是否有感兴趣的目标。 第2章 图像捕捉部分性能评估 2.1 图像捕捉的数学模型 图像捕捉过程如图1所示。G 为系统的稳态增益,),(y x p 是图像捕捉设备的空间响应函数,),(y x n p 是光电探索的噪声。),(y x comb 代表采样网格函数,),(),,(y x s y x o 分别为输入、输出信号。 在这种模型下的输出信号 ),(),()],(),([),(y x n y x comb y x p y x Go y x s p +*= 其中,∑--= n m n y m x y x comb ,),(),(δ,代表在直角坐标系下,具有单位采样间隔的采样设备的采样函数。

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑, 则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约 为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1, 即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位 二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概 率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验 概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷 积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

互信息凸性

互信息函数),(Q P I 的性质2的证明。 对于确定的条件概率矩阵Q 互信息函数),(Q P I 是概率矢量空间S 上的上凸函数。 (其中S ={P :P =(1p , 2p …, K p ), ,,...2,1,10K k p k =≤≤而∑==K k k p 1 1}) 证明:首先由定义知:),(Y X I =)(Y H -)(X Y H 其中 )(Y H =∑=- J j j j b p b p 1 )(log )( =∑∑∑===- J j k j K k k j k K k a b p a p b a p 11 1)()(log ),( =∑∑∑===- J j k j K k k k j k K k a b p a p a b p a p 1 1 1 )()(log )()( )(X Y H = ∑∑ ==-J j k j j k K k a b p b a p 1 1)/(log ),( =∑∑==- J j k j k j k K k a b p a b p a p 1 1 )/(log )()( 可知对于确定的Q ,)(Y H 和)(X Y H 都是S 上的函数,且)(X Y H 关于P 是线性的。 下面将证明)(Y H 是S 上的上凸函数。即对?1P ),...,,(11211K p p p =, 2P ),...,,(22221K p p p =∈S ,及λ,λ,.1,10λλλ-=≤≤ 成立 ∑∑∑ ===++-J j k j k k k k K k k j k k k j k k K k a b p a p a p a b p a p a b p a p 1 211 211 ) ()]()([log )]/()()()([λλλλ≥ ∑∑∑ ===-J j k j K k k k k j k k K k a b p a p a b p a p 1 1 111) ()(log )()(λ

信息管理学复习资料【重点】

管理信息学复习要点 第一章 科学的信息定义: 信息是对客观世界中各种事物的运动状态和变化的反映,是客观事物之间相互联系和相互作用的表征,表现的是客观事物运动状态和变化的实质内容。 信息的特征 客观性普遍性不完全性依附性价值性时效性可传递性可存储性可扩散性共享性可加工性有用性 数据、信息和知识 数据是客观记录、分类和存储,它不被用来传递任何特定意义。可以是数值、字符(串)、图、声音、图像/图片等。---语法信息 信息是被组织起来、对接受者有特定意义的数据。它可能是一些接受者知道的,也可能不知道但接受者自己能解释。---语义信息 知识通过对数据的加工、提取形成的有重要应用前景、能反映过去经验、具有价值性的数据。---语用信息 信息资源的三要素: 信息生产者:是为某种目的生产信息的劳动者,包括原始信息生产者、信息加工者或信息再生产者。 信息:既是信息生产的原料,也是信息生产的产品,是信息生产者的劳动成果,对社会各种活动直接产生效用,是信息资源的目标要素。 信息技术:是能够延长或扩展人的信息能力的各种技术的总称,是对声音、图像、文字等数据和各种传感信号的信息进行收集、加工、存储、传递和利用的技术。信息技术作为生产工具,对信息收集、加工、存储与传递提供支持与保障。 在信息资源中,信息生产者是最关键的因素,因为信息和信息技术都离不开人的作用,

信息是由人生产和消费的,信息技术也是由人创造和使用的。 信息资源的特征 信息资源作为经济资源的一种,它具有经济资源的共同特征即需求性、稀缺性和对象的选择性。信息资源作为一种独立存在的资源,它也有其自身特有的特征,如可共享性、无穷无尽性和驾驭性等。 信息科学 信息科学是研究信息运动规律和应用方法的科学,是由信息论、控制论、计算机、人工智能和系统论相互渗透相互结合而成的一门新兴综合性学科。其支柱为系统论、控制论和信息论。 信息论是信息科学的前导,是一门用数理统计方法研究信息的度量、传递和交换规律的科学。信息论的主要研究内容。 系统论是以一般系统为研究对象的理论。其创始人是美籍奥地利生物学家贝塔朗菲。系统论的主要思想。 控制论是研究控制系统的理论,其创始人是美国数学家维纳。控制论的基本原理。 信息技术 信息技术是关于信息的产生、发送、传输、接收、变换、识别、控制等应用技术的总称。其支柱为通讯技术、计算机技术和控制技术。包括信息基础技术、信息处理技术、信息应用技术和信息安全技术等。 信息管理的定义 信息管理是人们为了有效地开发和利用信息资源,以现代信息技术为手段,对信息资源进行计划、组织、领导和控制的社会活动。简单地说,信息管理就是人对信息资源和信息活动的管理。 信息管理的对象是信息资源和信息活动 信息管理是管理活动的一种 信息管理也是一种社会规模的管理活动

信息论期末复习

第二章 信源熵 一、自信息量 1. 定义:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。定 义为其发生概率对数的负值。若随机事件发生i a 的概率为)(i a p ,那么它的自信 息量为:)(log )(2i i a p a I -= (bit ) 2. 性质:在事件发生前,)(i a I 表示该事件发生的不确定性。 在事件发生后,)(i a I 表示事件发生所提供的信息量。 二、信源熵 1. 定义: 已知单符号离散无记忆信源的数学模型 我们定义信源各个离散消息的自信息量的数学期望为信源的平均信息量,一般称为信 源的平均信息量: )(log )(])(1[log )]([)( 212i n i i i i a p a p a p E a I E X H ∑=-=== 2. 信源熵与平均自信息量之间的区别 两者在数值上是相等的,但含义不同。信源熵表征信源的平均不确定度,平均自信息量是消除不确定度所需要的信息的度量。信源一定,不管它是否输出离散消息,只要这些离散消息具有一定的概率特性,必有信源的熵值,该熵值在总体平均的意义上才有意义,因而是一个确定值, 。在离散信源的情况下,信源熵的值是有限的。而信息量只有当信源输出离散消息并被接收后,才有意义,这就是给予接收者的信息度量。 3. 最大离散熵定理:信源X 中包含n 个不同离散消息时,信源熵H(X)有: n X H 2log )(≤ 当且仅当X 中各个消息出现的概率全相等时,上式取等号。 4. 扩展信源的信源熵:N 次扩展信源的信源熵:)()(X NH X H N = )(,),(,),(),( , , , , ,)( 2121? ?????=??????n i n i a p a p a p a p a a a a X P X

信息论基础理论与应用考试题及答案.doc

信息论基础理论与应用考试题 一、填空题(每题2分,共20分) 1.信息论研究的ri的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)、(有效性)、保密性和认证性,使信息传输系统达到最优化。(考点:信息论的研究目的) 2.电视屏上约有500X600=3X 1O,个格点,按每点有10个不同的灰度等级考虑, 则可组成IO’加'个不同的画面。按等概计算,平均每个画面可提供的信息量约为(I()6bit/画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为(加性信道)和(乘性信道)。(考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q二32。若r=2, N=l, 即对信源S的逐个符号进行二元编码,则每个英文电报符号至少要用(5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积也。 (考点:纠错码的分类) 7.码C=((0, 0, 0, 0), (0, 1, 0, 1), (0, 1, 1, 0), (0, 0, 1, 1)}是(Gb 2)?线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即 MB | q

(H(X) = E log—— =-£p(%)logP(q))。 P(q)/=i ■ ■ ■ (考点:平均信息量的定义) 9.对于一个(n,k)分组码,其最小距离为d,那么,若能纠正t个随机错误,同时能检测e (eNt)个随机错误,则要求(dNt+e+1 )。 (考点:线性分组码的纠检错能力概念) 10.和离散信道一?样,对于固定的连续信道和波形信道都有一?个最大的信息传输速率,称之为(信道容量)。 (考点:连续信道和波形信道的信道容量) 二、判断题(每题2分,共10分) 1.信源剩余度的大小能很好地反映离散信源输出的符号序列中符号之间依赖关系的强弱,剩余度越大,表示信源的实际嫡越小。(对)(考点:信源剩余度的基本概念) 2.信道的噪声是有色噪声,称此信道为有色噪声信道,一?般有色噪声信道都是无 记忆信道。(错)(考点:有色噪声信道的概念) 3.若一组码中所有码字都不相同,即所有信源符号映射到不同的码符号序列,则 称此码为非奇异码。(对)(考点:非奇异码的基本概念) 4.在一个二元信道的n次无记忆扩展信道中,输入端有2。个符号序列可以作为消息。(对) 5.卷积码的纠错能力随着约束长度的增加而增大,-?般情况下卷积码的纠错能力 劣于分组码。(错)(考点:卷积码的纠错能力) 三、名词解释(每题3分,共12分) 1 .信源编码

学科导论学习报告

学科导论学习报告

目录 目录 (2) 学科导论学习报告 (3) (1)对电子通信学科的认识 (3) ①对学科的简介: (3) ②培养方向: (4) ③培养目标: (4) ④就业方向: (5) ⑤主要课程: (5) ⑥专业特点: (5) (2)对学科导论课程的评价与认识 (5) ①优点: (6) ②不足与改进: (6) (3)有关本专业新技术——NGN新技术的简述。 (7) ①基本简介: (7) ②主要技术: (7) ③特点: (9) (4)通过学习后的心得体会: (9) ①学习方法的改进: (10) ②我的简单职业生涯规划: (10) 1.学业为主 (10) 2.学业家庭并重: (11) 3.家庭为主: (11) 4.学习上的目标 (11) 5具体三年规划 (11) 6.短期计划: (12) 7.大学四年最终目标 (12)

学科导论学习报告 每周二晚上尽管时间很匆忙,仍然坚持对学科导论的学习。尽管学习的时间很短,但通过对本专业《学科导论》的学习,我不仅仅对信息工程专业有了更深的了解,更重要的是对本专业有了融厚的兴趣以及掌握了一些有用的学习方法。我相信会为我以后的学习,给以很大的帮助。同时给我在成就美丽人生的路上,倍添了信心。 (1)对电子通信学科的认识 通过课程的学习以及网上查找资料,我得到相关的认识如下:本专业是建立在超大规模集成电路技术和现代计算机技术基础上,研究信息处理理论、技术和工程实现的专门学科。该专业以研究信息系统和控制系统的应用技术为核心,在面向21世纪信息社会化的过程中具有十分重要的地位。 在课堂上老师介绍了信息科学与技术导论,其中详细包括了大科学观,信息基础,信息获取,信息传递,信息处理,信息执行,学科关系,学习方法,未来趋势,放眼社会。对科学、技术、信息等词语都做出了详细的解释以及生动的举例。技术,也叫工艺学,是人类创造的关于如何认识自然和如何改造自然的工艺方法体系,它从实践过程中被人们逐渐总结出来,或在科学理论指导下被人们发明出来,经过实践的检验而得到确认和应用。 这些使我了解了很多,同时激励我不断地对问题思考与总结。 ①对学科的简介:

广义信息熵的推广与应用

青岛农业大学 本科生课程论文 论文题目广义信息熵的推广与应用 学生专业班级信息与计算科学09级02班学生姓名(学号)(20094052) 指导教师吴慧 完成时间 2012年6月28日 2012 年 6 月 28 日

课程论文任务书 学生姓名指导教师吴慧 论文题目广义信息熵的推广与应用 论文内容:本文先介绍了Shannon 信息熵的定义,并对其进行了一 定的分析,介绍了它的一些基本性质。其次,说明Shannon 熵的局 限性,以此引出了广义信息熵。然后对常用的Renyi 熵、Tsallis 熵 进行讨论,说明它们与Shannon 熵的联系。最后介绍了广义熵在实 际生活中的应用。 资料、数据、技术水平等方面的要求:论文要符合一般学术论文的写 作规范,具备学术性、科学性和一定的创造性。文字要流畅、语言要 准确、论点要清楚、论据要准确、论证要完整、严密,有独立的观点 和见解。涉及到他人的观点、统计数据或计算公式等要标明出处,结 论要写的概括简短。 发出任务书日期 2012-6-5 完成论文日期 2012-6-19 教研室意见(签字) 院长意见(签字)

广义信息熵的推广与应用 信息与计算科学 指导教师吴慧 摘要:本文先介绍了Shannon 熵,由Shannon 熵推广到一般的广义信息熵,使其适用范围更广。然后在Shannon 熵的基础上介绍了两种最常用的广义信息熵:Renyi 熵和Tsallis 熵,说明了这两种广义信息熵的简单性质,以及与Shannon 熵的联系和性质上的差异。最后介绍了广义熵在实际生活中的应用。 关键词:Shannon 熵;广义信息熵;应用 The promotion and application of the generalized information entropy Student majoring in Information and Computing Science ZhuMeng Tutor WuHui Abstract:At the beginning of this article it introduced the Shannon entropy.Then, it described the two most commonly used generalized information entropy: Renyi entropy and Tsallis entropy on the basis of the Shannon entropy.What is more,this article not only described the simple nature of the generalized information entropy but also described their contact with the Shannon entropy as well as the different nature between them.Finally, it introduced the application of the generalized entropy in real life. Keywords: Shannon entropy; generalized information entropy; application

信息论基础及答案

《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞ -∞?→∞ --??) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x -)时,信源具有最大熵,其值为 0.6155hart(或1.625bit 或1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同 的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

最新高中信息科技会考总复习知识点整理后

信息科技基础知识梳理 第一章信息与信息技术 1. 东西”。 2.人类社会赖以生存和发展的三大资源:信息、物质、能源。 3.常用的信息技术:通信技术、计算技术、感测技术、控制技术 4.信息载体:在信息传播中携带信息的媒介,是信息赖以附载的物质基础。 5.信息的主要特征:普遍性、依附性、价值性、共享性、可处理性、时效性等。 6.信息处理的工具:算盘、电报、电话、计算机等。计算机是常见的信息处理工具。 7.信息处理的一般过程是指信息收集、信息存储、信息加工、信息发布。 8.信息处理的一般要求:信息的获取要全面、信息的加工要准确、信息的表达要规范、信息的传输要 安全。 9.计算机作为常见的信息处理工具的特征:高速、自动、准确。 10.信息技术:简称IT,指在信息的获取、整理、加工、存储、传递、和利用过程职工采用的技术和方 法。 11.常见的代替人的信息功能的信息技术有:感测与识别技术、计算与智能技术、通信技术、存储技术、 控制与显示技术。 12.现代信息技术:以电子技术,尤其是以微电子技术为基础,以计算机技术为核心、以通信技术为支 柱,以信息技术应用为目的的科学技术群。 13.现代信息技术的发展趋势:数字化、智能化、网络化、个性化。 14.信息技术的五次革命: (1)语言的产生。揭开了人类文明的序幕,是信息表达和交流手段的一次关键性革命,大大提高了信息的表达质量和利用效率。 (2)文字的发明。突破了时空的限制,使人类可以跨越时间、地域传递和交流信息。 (3)造纸术和印刷术的发明。使知识的积累和传播有了可靠的保障,使信息传递到世界各个角落成为可能,为人类的近代文明奠定了基础。 (4)电报、电话、广播、电视的发明和普及应用。使得人们在传递信息方面获得了更大的自由,使

信息论基础理论与应用测验题及答案

信息论基础理论与应用测验题及答案

————————————————————————————————作者:————————————————————————————————日期:

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4,2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即 (11()log ()log ()()q i i i i H X E P a P a P a =?? ==-??? ?∑) 。

《信息与编码》教学大纲

《信息与编码》教学大纲 课程编号 1610082 总学时 54 理论44 实验/上机 10 学分 3 开课单位 信息学院 开课系电子工程系 修订时间 2006年1月1日 课 程 简 介 教学内容 本课程内容包括:信息论的基本理论以及编码的理论和实现原理,无失真信源编码、限失真信源编码、信道编码和密码学中的理论知识及其实现原理。 修读专业:电子信息工程 先修课程:线性代数、概率论与数理统计 教材:吕锋、王虹,信息理论与编码,人民邮电出版社,2004 一、课程的性质与任务 信息与编码是由Shannon奠基的一门数学学科,它产生于有效而可靠的通信问题中,是研究信息的产生、获取、度量、变换、传输、处理、识别及其应用的重要基础学科,其影响渗透到许多应用领域。通过本课程的学习,使学生对信息理论有一个比较全面和系统的了解,掌握信息论的基本概念和信息论方法,为从事信息科学的研究和应用打下一个坚实的基础。 二、课程的基本要求 本课程的教学环节包括课堂讲授,学生自学,习题讨论课,习题,答疑和期未考试。通过上述基本教学步骤,要求学生掌握信息论的基本理论和概念,掌握离散信道有关信息论理论,掌握信源编码方法,理解信道编码理论以及各种常用的信道编码方法,为进一步学习打下坚实基础。 三、修读专业 电子信息工程

四、本课程与其它课程的联系 先修课程线性代数和概率论与数理统计是本课程的基础。本课程主要需要线性代数的线性运算,矩阵的乘法等。概率论的一些基础知识和常见的正态分布。 五、教学内容安排、要求、学时分配及作业 1、绪论 (4学时) 1.1信息论的形成与发展(C) 1.2通信系统的模型 (B) 2、信源及信源熵 (10学时) 2.1信源的描述和分类 (B) 2.2离散信息熵和互信息 (A) 2.3连续信息熵和互信息 (B) 2.4离散序列信源的熵 (A) 2.5冗余度 (A) 3、无失真信源编码 (10学时) 3.1编码的定义 (B) 3.2定长编码定理 (A) 3.3变长编吗定理 (A) 3.4最佳编码 (A) 4、限失真信源编码(8学时) 4.1平均失真和信息率失真函数 (B) 4.2离散信源和连续信源的R(d)计算 (B) 4.3限失真编码定理 (B) 4.4常用信源编码的方法介绍,游程编码,算术编码,矢量量化编码,预测编码, 变换编码 (A) 5、信道编码(12学时) 5.1信道模型和信道容量 (C) 5.2有扰离散信道的编码定理 (B) 5.3差错控制与信道译码的基本原理。(B)

信息论复习知识点

1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,

从而创立了信息论。 按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。 按照信息的地位,可以把信息分成 客观信息和主观信息 。 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最常用的方法。 熵 是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生 概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H Λ。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。

《信息论和编码技术》复习提纲复习题

《信息论与编码技术》复习提纲 复习题纲 第0章绪论 题纲: I.什么是信息? II.什么是信息论? III.什么是信息的通信模型? IV.什么是信息的测度? V.自信息量的定义、含义、性质 需掌握的问题: 1.信息的定义是什么?(广义信息、狭义信息—— Shannon信息、概率信息) 2.Shannon信息论中信息的三要素是什么? 3.通信系统模型图是什么?每一部分的作用的是什么? 4.什么是信息测度? 5.什么是样本空间、概率空间、先验概率、自信息、后验 概率、互信息? 6.自信息的大小如何计算?单位是什么?含义是什么(是 对什么量的度量)? 第1章信息论基础 ㈠《离散信源》题纲: I.信源的定义、分类 II.离散信源的数学模型 III.熵的定义、含义、性质,联合熵、条件熵

IV.离散无记忆信源的特性、熵 V.离散有记忆信源的熵、平均符号熵、极限熵 VI.马尔科夫信源的定义、状态转移图 VII.信源的相对信息率和冗余度 需掌握的问题: 1.信源的定义、分类是什么? 2.离散信源的数学模型是什么? 3.信息熵的表达式是什么?信息熵的单位是什么?信息熵 的含义是什么?信息熵的性质是什么? 4.单符号离散信源最大熵是多少?信源概率如何分布时能 达到? 5.信源的码率和信息率是什么,如何计算? 6.什么是离散无记忆信源?什么是离散有记忆信源? 7.离散无记忆信源的数学模型如何描述?信息熵、平均符 号熵如何计算? 8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、 条件熵(N阶熵)的计算、关系和性质是什么? 9.什么是马尔科夫信源?马尔科夫信源的数学模型是什 么?马尔科夫信源满足的2个条件是什么? 10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔 科夫信源状态转移图? 11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵 如何计算? 12.信源的相对信息率和冗余度是什么?如何计算?

《信息论理论基础》补修复习资料

《信息论理论基础》补修复习资料 一、判断题(每小题2分, 共计20分) 1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(X H .( ) 2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集.( ) 3.一般情况下,用变长编码得到的平均码长比定长编码大得多.( ) 4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信.( ) 5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ( ) 6. 连续信源和离散信源的熵都具有非负性.( ) 7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小.( ) 8. 汉明码是一种线性分组码.( ) 9. 率失真函数的最小值是0.( ) 10.必然事件和不可能事件的自信息量都是0.( ) 答案: 1、√; 2、√; 3、×; 4、×; 5、√; 6、×; 7、×; 8、√; 9、√;10、×. 二、填空题(每小题5分, 共计30分) 1、码的检、纠错能力取决于 . 答案: 码字的最小距离(min d ). 2、信源编码的目的是 ;信道编码的目的是 . 答案:(减少)冗余,提高编码效率; 提高信息传递的可靠性. 3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 . 答案: 系统码. 4、香农信息论中的三大极限定理是 、 、 . 答案: 无失真信源编码定理,信道编码定理,限失真信源编码定理. 5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的 条件 . 答案: 信道和信源都是无记忆. 6、某二元信源01()1/21/2X P X ???? =?? ?????? ,其失真矩阵00a D a ??=????,则该信源的max D = . 答案: 2 a . 三、解答题(四小题共计50分) 1、(12分)某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号 i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ?? =?? ?? . (1) 计算接收端的平均不确定度()H Y ;

相关文档
最新文档