第1讲——信息论的对象与方法

合集下载

信息论绪论

信息论绪论
信息理论基础
课程主要内容
第1章 第2章 第3章 第4章 第5章 绪论 信息的统计度量 离散信源 离散信道及其容量 无失真信源编码
第1章 绪论
信息论的研究对象:信息。 信息论的研究基础:通信系统模型。 信息论的发展历史及应用。 信息论与信息安全的关系。
1.1 信息
信息的概念之一——通俗概念
信息就是一种消息
电报
电话
报纸
电视
上网
这个概念并不准确,混淆了消息和信息的概念。
1.1 信息
信息的概念之二——广义信息 信息是对物质存在和运动形式的一般描述 这个概念不容易定量描述,更接近于一个 哲学概念。
1.1 信息
信息的概念之三——概率信息 又叫狭义信息——信息量 用事件发生的概率衡量它的信息量
事件发生的概率越大,它发生后提供的信息量越小。 人每天都要吃饭 事件发生的概率越小,一旦该事件发生,它提供的信 息量就越大。 美国总统的专机发生空难
发送电报
张三 信号
李四
美国总统的专机发生空难
消息
被人的大脑所理解, 形成信息
信息
信息的特点
信息是无形的。 信息是可共享的。 信息是无限的。 信息是可度量的。信息的度量是信息论的 信息的度量是信息论的 一个重要内容。 一个重要内容。
1.2 通信系统模型
信息论又叫通信的数学理论。研究的是在通信系 统中如何实现信息传输、存储和处理的有效性和 可靠性。 因此信息论的研究基础 通信系统模型 研究基础是通信系统模型 研究基础 通信系统模型。 如何理解通信:将信息由一方传递给另一方,这 个传递过程就是通信。
信息论的应用领域
通信 密码 计算机 逻辑学、心理学、语言学、生物学、仿生 学、管理科学 凡是可以用概率描述的领域都要用到信息 论作指导

信息论第1章

信息论第1章

第一章信息的定性描述第一节对信息的初步认识一. 信息社会当今,世界上信息革命的热潮一浪高过一浪。

近年来,移动电话、个人电脑和网络用户正以高于摩尔定律的速度迅猛增长。

人们都在谈论着信息社会、信息革命和网络时代,信息似乎成了个很时髦的字眼儿。

就连中国人平常打招呼的话“你吃饭了吗?”也被有些人改成“你上网了吗?”但这绝不是什么赶时髦,也绝不是什么偶然现象,而是社会发展的必然趋势。

因为在信息社会里,人们最关心的是信息问题,而不是吃饭问题。

“民以食为天”的信条将会逐渐被“民以信为天”所代替。

社会学家和未来学家普遍认为,20世纪末和21世纪初,是信息革命爆发的时期。

一些新技术的突破和新产业的出现,使社会生产力发生了新的飞跃,人们的生活也发生了新的变化,人类社会正在进入信息化社会。

所谓信息化社会,就是以信息产业为中心,使社会生产、生活和经济都发展起来的社会。

在这种社会中,◆信息成了比物质或能源更为重要的资源,◆对信息产业成了重要的产业。

◆从事信息工作者成了主要的劳动者。

◆信息和知识成了生产力发展的决定因素。

二. 信息的普遍性其实,信息并不是什么新鲜东西,信息无时不在,无处不有。

人们生活在信息的海洋里,天天都要通过自己的感觉器官感受各种外界信息。

例如,衣食住行,读书看报,听广播,看电视等等。

人们要进行社会活动就需要有信息交流。

例如,除了书信、电话、电报之外,天天都要同许多人交谈、交往。

人们还要进行信息处理和存储。

例如,要把观察、接收到的大量事物、数据和资料进行分类、分析、整理和纪录。

不仅如此,信息也是人类自身进化的一个基本条件。

恩格斯对于人类的进化过程,曾有过这样一段极其精彩的描述:“……这些猿类,大概是首先由于它们生活方式的影响……渐渐直立行走……手变得自由了……随着手的发展,随着劳动而开始的人对自然的统治,在每一个新的发展中扩大了人的眼界。

……另一方面,劳动的发展必然促使社会成员更加紧密地互相结合起来,因为它使互相帮助和共同协作的场合增多了,并且使每个人都清楚地意识到这种共同协作的好处。

信息论

信息论

此外,在医学、生物学、生理学、心 理学、神经学、语言学、社会学等方面 也有广泛的应用。在医学上,人们利用 声波成像技术制成各种超声检验和诊断 仪器,例如B超,通过计算机进行图像处 理,再使用图像存储和显示方法,我们 不仅可以清晰地看到人体的内脏器官, 还可以看到只有几十天的母体内胎儿的 发育情况,图像清晰,层次分明。
(2)一般信息论:也称工程信息论。 主要也是研究信息传输和处理问题, 除香农信息论的内容外,还包括噪 声理论、信号滤波和预测、统计检 测和估计、调制理论、信息处理理 论以及保密理论等。
(3)广义信息论:也称信息科学, 不仅包括上述两方面的内容,而且 包括所有与信息有关的自然和社会 科学领域,如模式识别、机器翻译、 心理学、遗传学、神经生理学、语 言学、语义学,甚至包括社会学中 有关信息的问题。 本课程主要研究香农信息论的内 容。
(3)信道:信息传递的通道,连接编码器与译码 器的媒介,承担信息的传输和存储的任务,是构 成通信系统的主要部分。实际的信道有电缆、波 导、光纤等。由于干扰和噪声具有随机性,信道 用输入和输出之间的条件概率分布来描述。
• (4)译码器:将信道输出的信号 与噪声接收下来还原为原来的 消息,是对迭加了干扰的编码 信号反变换,分为信源译码器 和信道译码器两种。 (5)信宿:通信的目的地,消息 传递的对象。
信道 编码器
信道 接收码
信宿

消息Βιβλιοθήκη 信源 编码器 码
信道 译码器

Markov模型
• 在生物和社会生活方面更为合适,其特点 是,连接部件是输入码和输出码的处理点。
第三节 信息论与其他领域的关系及 应用
• 信息论与其他学科之间的关系可 用下图概括
特别地,信息论在通信系统中有 如下的应用: (1)无失真信源编码的应用:计算机 文件的压缩; (2)有噪信道编码的应用:模拟话路 中数据传输速率的提高; (3)限失真信源编码的应用:语音信 号压缩。

信息论讲义_第一讲

信息论讲义_第一讲

• 香农定义的信息也有其局限性,存在一些缺陷
– 定义的出发点是假定事物状态可以用一个以经典集 合论为基础的概率模型来描述。 – 没有考虑收信者的主观特性和主观意义,也撇开了 信息的具体含意、具体用途、重要程度和引起后果 等因素。
20
1.1.4 信息、消息与信号
信息: 比较抽象的概念;是系统中传输的对 象;包含在消息之中。 消息:比较具体,但不是物理量;具有不同 形式,例如语言、文字、符号、图像等能够 被人感知;可以传输并被通信双方理解;同 一消息含有不同信息;同一信息可用不同消 息载荷。 信号:最具体,是消息的载荷者;是表示消 息的物理量,可测量、可显示、可描述,是 信息的物理表达层。
12
1.1.2 广义的信息概念
信息本身看不见、摸不着,它必须依附于一定的物 质形式(如文字、声波、电磁波等)。这种运载信 息的物质称为信息的载体,一切物质都有可能成为 信息的载体。
13
1.1.3 概率信息概念
由美国数学家香农1948年提出,亦称香农信息 基于对通信活动基本功 基于对通信活动对象和 基于对通信活动的机制 或狭义信息。概率信息是从 不确定性 能的观察分析,“通信 过程的分析研究,“信 和本质的分析研究, (Uncertainty) 和概率测度出发定义信息的。 的基本问题是在信宿端 源发出的消息总是从可 “人类只有在两种情况 香农针对人类通信活动的特点,提出了 精确或近似地复制发送 能发生的消息符号集合 下有通信的需求, 1)自 端所挑选的消息。通常 中随机选择,通信系统 己有某种形式的消息要 ① 形式化假说 消息是有语义的,即它 无法预先知道信源在什 告诉对方,且估计对方 ② 非决定论 按某种关系与某些物质 么时候会选择什么消息 不知道; 2)自己有某种 ③ 不确定性 概念的实体联系着。通 发送”,即具有通信意 疑问需要对方给出解答” 信中语义方面的问题与 义的消息都是随机发生 经过通信活动后,消除 工程问题没有关系” 的 了 随机事件,获取了信 不确定性

《信息论方法》课件

《信息论方法》课件
信道容量:信道能够传输的最大信息量 编码定理:信道容量可以通过编码技术达到 信道编码:将信息转换为适合信道传输的信号 信道解码:将接收到的信号转换为原始信息
失真函数和信息率失真函数
单击此处添加标题
失真函数:描述信号失真的程度,通常用均方误差或方差表示
单击此处添加标题
信息率失真函数:描述信息传输过程中信号失真的程度,通常用信息熵或互 信息表示
解调:将接收到的射频信号还 原为信息信号
调制解调器:实现调制和解调 功能的设备
调制解调技术:如FSK、PSK、 QAM等,用于提高传输速率和 可靠性
光纤通信系统的编码与调制
光纤通信系统的基 本原理
光纤通信系统的编 码方式
光纤通信系统的调 制方式
光纤通信系统的传 输速率和距离
06
信息论在数据处理中的 应用
起源:1948年,美国数学家 克劳德·香农提出信息论
信息论:研究信息的传输、 存储、处理和利用的科学
发展:信息论在通信、计算 机科学、经济学等领域得到
广泛应用
意义:信息论为信息处理提 供了理论基础,推动了信息
时代的发展
信息论的基本概念
信息量:衡量信息不确定性 的度量
信息:指具有不确定性的事 件或消息
信号的统计特性和信息量
信号的统计特性:包括均值、 方差、自相关函数等
信息量的定义:信息量是信号 中包含的信息量的度量
信息量的计算:通过香农熵公 式计算
信息量的应用:在信号处理中, 信息量可以用来衡量信号的质 量和传输效率
信号的压缩编码和解码
编码方法:包括Huffman编 码、LZW编码、JPEG编码 等
预测编码:根据过去的数据 预测未来的数据
预测编码的应用:语音识别、 图像处理、数据压缩等

信息论基本原理

信息论基本原理

信息论基本原理
嘿,朋友们!今天咱来聊聊超有意思的信息论基本原理!
比如说,你想想看,你跟朋友聊天,说的每一句话是不是都包含着各种信息呀?就好像你说“我今天去吃了一顿超级美味的火锅”,这里面就包含了很多信息呢,比如你做了什么事,吃的东西是什么。

这其实就是信息在传递嘛。

信息论呢,就像是一个神奇的魔法,它能帮助我们理解这些信息是怎么传递、怎么处理的。

再举个例子,你给别人发一条短信,那一个个字就是信息,而信息论可以研究怎么让这些字更准确、更快地被对方理解接收呀。

咱生活中不是有时候会遇到信号不好,消息传递得断断续续的情况吗?这时候信息论的作用就体现出来啦!它能想办法让信息在各种“沟沟坎坎”中更好地传达,就像个勇敢的战士努力打通信息的通道!
你说神奇不神奇?再比如听音乐,那一个个音符组成的旋律也是信息呀,信息论就能帮忙让音乐的传输和存储更高效呢!
哇,信息论真的是无处不在啊,从我们日常的聊天、发短信,到各种先进的科技领域,都有它的身影哦!我觉得啊,它就像是我们生活中的一个好伙伴,默默地为我们服务,让我们的信息世界变得更加精彩!所以呀,我们一定要好好了解它、掌握它,这样才能更好地利用它为我们的生活添彩呀!别小瞧了这个信息论哦,它的作用可大了去啦!。

信息论中的信息论方法与应用

信息论中的信息论方法与应用

信息论中的信息论方法与应用信息论是一门研究信息传输、存储和处理的学科,它主要关注信息的度量和通信的效率。

信息论方法和应用涵盖了多个领域,包括通信工程、计算机科学、统计学和生物学等。

本文将探讨信息论中的方法和它们在不同领域中的应用。

一、信息论的基本概念和原理信息论的基本概念包括信源、信道和编码三个要素。

信源是信息的来源,信道是信息传输的媒介,编码是将信息转化为符号的过程。

在信息论中,信息的度量使用熵来衡量,熵越大表示信息越不确定,反之则越确定。

熵的计算公式为H(X) = -Σp(x)log2(p(x)),其中p(x)表示信源输出为x的概率。

二、信息论方法的应用1. 通信工程领域信息论在通信工程领域中起到了重要的作用。

通过研究信道容量和编码理论,可以设计出更高效的通信系统。

例如,通过研究码距、纠错编码和调制技术等,可以提高信道传输的可靠性和抗干扰能力。

2. 数据压缩信息论方法在数据压缩方面具有广泛的应用。

通过研究数据的统计特性和冗余性,可以设计出高效的压缩算法。

这些算法可以将冗余信息删除或者利用编码技术对数据进行压缩,从而减少存储和传输所需的资源。

3. 密码学信息论对密码学的发展也起到了重要的推动作用。

通过研究信息论中的信息安全理论,可以设计出更安全可靠的加密算法和协议。

信息论方法还可以用于分析密码系统的安全性,并通过理论模型和数学推导来评估密码系统的强度。

4. 生物信息学信息论方法在生物信息学领域中也得到了广泛应用。

通过研究DNA序列的信息熵和互信息,可以揭示基因组的结构和功能。

信息论还可以应用于序列比对、基因识别和蛋白质结构预测等问题,从而促进生物信息学的发展。

5. 机器学习信息论方法在机器学习领域中具有重要的应用价值。

通过研究信息熵、条件熵和互信息等概念,可以对数据进行特征选择、聚类和分类等任务。

信息论方法还可以用于构建决策树、神经网络和支持向量机等机器学习模型,从而提高算法的性能和泛化能力。

信息论第一章

信息论第一章
数 学 理 论 》 ( A Mathematical Theory of Communication,BSTJ,1948)标志着信息论的
产生。
• 信息论这门学科的特点
理论基础 数学工具 研究的内容
通信的基本问题:在一点精确地或近似 地恢复另一点所选择的消息。
通信系统三项性能指标:
传输的有效性 传输的可靠性 传输的安全性
1.3 信息的基本概念
由于信息已成为许多专家学者争相研究 的对象,而且他们从不同的角度和侧面研 究和定义信息。据说到目前为止已有上百 种信息的定义或说法。例如:
“信息是事物之间的差异”
“信息是物质与能量在时间与空间分布的不均匀性” “信息是收信者事先不知道的东西” 等 等。
如前所述,由于当前还没有一个公认的关于 信息的定义,但这并不影响我们对信息的基本特 征的认识。
(举例情了语义 信息与语用信息的因素,先从语法信息入手,解 决当时最重要的通信工程一类的信息传递问题。
香农信息论是由概率统计的角度来研究事物运 动各种可能出现的状态及状态间的关系,因此是 概率性的语法信息。(例如中英文信源)
信号 通信信息三个层次 消息
信息 消息是信息的携带者,信息包含于消息 之中。
息的。例如,磁盘或光盘驱动器、磁带记录器、 视频播放器等
存储系统在某种意义上也可看成从现在向将来 发送信息的通信系统。
信源
编码器
信道
译码器
信宿
消息
信号
信号加 噪声
消息
噪声
图1-1 通信系统模型
1.信源(information source)
信源是信息的来源,其功能是直接产生 可能包含信息的消息
按输出符号的取值分类:
离散信源 连续信源: 连续信源又分为:
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

x8
111
1/8
×
×
×
Shannon信息定义
信源 信道 信宿
噪声或干扰
简单通信系统框图
不知、不确定
消除或部分消除 不知、不确定
信息的特征
不确定性 – 不确定性,接收者在收到信息之前,对它 的内容是不知道的; – 信息能使认识主体对某一事物的未知性或 不确定性减少; – 信息是可以量度的
不确定性度量
• 样本空间
– 信源所有可能发送的消息符号
• 先验概率p(xi)
– 选择符号xi作为发送消息的概率
不确定性大小
f ( p( xi ))
信息定义
不确定性大小 f ( p( x)) 应该满足以下3个条件
1. f (1) 0 2. f ( p( x))是单调减函数 3. 独立可加性
f ( p( x) p( y)) f ( p( x)) f ( p( y))
Claude Shannon (1916-2001)
文章曾遭受到数学家的抨击,责难Shannon 的一些结果未经证明,在数学上不严格,靠 不大住。Shannon对此评论说,“我不喜欢 他的评论,他并未仔细看这篇文章。我确信 我是正确的,我清楚地知道我所做的。” 经过无数科技工作者50年来的努力奋斗,人 们不仅在数学上已严格地证明了Shannon编码 定理,而且发现了各种具体可构造的有效编 码理论和方法,可以实现Shannon指出的极限。 Shannon所给出的编码定理的证明是非构造性 的,所给出的证明也不够严格,但“他的数学 直观出奇地正确” (A. N. Kolmogrov,1963) ,他是“最近几十年最伟大的工程师之一,同 时是最伟大的数学家之一。”
Байду номын сангаас译码器
信宿
Claude Shannon (1916-2001)
1916年生于美国密歇根州的加洛德镇, 2001年在马萨诸塞州辞世,享年85岁。 阿尔茨海默症(退化性老年痴呆症) 父亲是加洛德镇的法官,母亲是镇 里中学校长,他生长在一个有良好教育 的环境,不过父母给他的科学影响好像 还不如祖父的影响大。 香农的祖父是一位农场主兼发明家, 发明过洗衣机和许多农业机械。 香农心目中的英雄是爱迪生,后来 才知道他与爱迪生还有远亲关系。
2.信息论—基础理论与应用,傅祖芸编,电子工业出版社
3.应用信息论基础,朱雪龙编,清华大学出版社
第一讲 信息论的对象 与方法
什么是信息?
广义信息: 情报 情报、知识、消息 知识 消息 技术术语: 计算机处理中的数据、文字 科学名词: 统计数学、通信技术
– 用严格的数学公式定义的科学名词,它与 内容无关,而且不随信息具体表现形式的 变化而变化,因而也独立于形式。
x8
111
1/8
×
×
×
信息、消息和信号
• 信息 – 是事物运动状态或存在方式不确定性的描述。 • 消息 – 是指包含有信息的语言、文字和图像等 。 • 信号 – 是消息的物理体现。
消息 信号 信源 码字 消息先 输出 输出 验概率 x1 x2 x3 x4 x5 x6 x7 000 001 010 011 100 101 110 1/8 1/8 1/8 1/8 1/8 1/8 1/8 消息后验概率 收到0 收到01 √ √ √ √ × × × × × √ √ × × × 收到011 × × × √ × × ×
消息后验概率 收到0 收到01 1/4 1/4 1/4 1/4 0 0 0 0 0 1/2 1/2 0 0 0 收到011 0 0 0 1 0 0 0
x8
111
1/8
0
0
0
概率空间
x2 xn X x1 P p ( x ) p ( x ) p( x ) 1 2 n
【例】摸球试验
甲袋共100个球,红球白球各50个;乙袋共100个 球,红、白、蓝、黑球各25个;现随意从甲袋或 乙袋中取出一球,并猜测取出球的颜色?
事物出现某状态不确定性的大小,与该状态出现 的概率大小有关
不确定性度量
【例】气象预报
甲地: X 晴 阴 大雨 小雨 p ( x ) 1 / 2, 1 / 4, 1 / 8, 1 / 8 乙地: Y 晴 阴 大雨 小雨
消息后验概率 收到0 收到01 1/4 1/4 1/4 1/4 0 0 0 0 0 1/2 1/2 0 0 0 收到011 0 0 0 1 0 0 0
x8
111
1/8
0
0
0
香农定义的信息的优缺点
• 优点
– 有明确的数学模型和定量计算公式 – 与日常用语中的信息含意一致 – 排除了对信息一词某些主观上的含意
Claude Shannon (1916-2001)
就职于贝尔电话研究所,他受着前辈的工 作的启示, 在信息论的领域中钻研了8年之 久,终于在1948年也在《贝尔系统技术杂 志》上发表了244页的长篇论著《通信的 数学理论》,次年,他又在同一杂志上发表 了另一篇名著《噪声下的通信》,这两篇 文章成了信息论的奠基著作。在这两篇论 文中,香农解决了过去许多悬而未决的问 题:阐明了通信的基本问题,给出了通信 系统的模型,提出了信息量的数学表达式, 并解决了信道容量、信源统计特性、信源 编码、信道编码等一系列基本技术问题。 两篇论文成为了信息论的基础性理论著作。 那时,他才不过刚刚三十出头。
• 局限性
– 没有考虑收信者的主观特性和主观意义 – 定义的出发点假定事物状态可以用一个概率模型来 描述
信息论研究对象
信 源 信 宿
信源编码 加密 信道编码 加密 密钥 信 道 解密 密钥
信源译码 解密 信道译码
干 扰 源
信息论研究目的
寻找信息传输过程中的共同规律,以提 高信息传输的可靠性、有效性、保密性 和认证性,使达到信息传输系统最优化
Shannon的大师风范
1. 兴趣驱动,淡漠名利 自述道:“我总是受我的兴趣驱动,不大关心其经济价值或对于世 界的价值。” 2. 探索股市,变得富有 思索股票价格起伏的规律性和信息论应用于投资的可能性。 在投资股票方面很成功,并变得富有。 3. 心灵手巧,善制机器 制作计算器Throbac和玩六连棋的机器Hex。 研究计算机下棋、老鼠走迷宫、杂技演员最多能控制多少个球,要 抛多高才行?机器解魔方问题以及用计算机研究和进行股票投资等。 4. 酷爱杂技,乐在其中 曾制作杂耍机,成为杂耍机器人的先驱。
Claude Shannon (1916-2001)
为了表彰Shannon的伟大功绩,IEEE Information Society的25名成员于2000年10 月6日在儿童时代的老家Gaylord镇举行了 Shannon塑像的落成典礼。 著名信息论和编码学者Dr. Richard Blahut 在Shannon塑像的落成典礼时的题 词说:“在我看来,两三百年之后,当人 们回过头来看我们这个时代的时候,他们 可能不会记得谁曾是美国的总统。他们也 不会记得谁曾是影星或摇滚歌星。但是仍 然会知晓Shannon的名字。学校里仍然会 讲授信息论。”
Claude Shannon (1916-2001)
1936年在密歇根大学获数学与电气工程学士 学位。1938年在MIT获得电气工程硕士学位, 硕士论文题目是《A Symbolic Analysis of Relay and Switching Circuits》(继电器与开 关电路的符号分析)。他把布尔代数的真与 假和电路系统的开与关对应起来,用布尔代 数分析并优化开关电路,奠定了数字电路的 理论基础。哈佛大学的Gardner教授说“这 可能是本世纪最重要、最著名的一篇硕士论 文”。1940年在MIT获数学博士学位,博士 论文关于人类遗传学的,题目是《An Algebra for Theoretical Genetics》(理论遗 传学的代数学)。
• 广义信息论
– 不仅包括上述两方面内容,而且包括所有与信息有 关的自然和社会领域,如模式识别、心理学等
本课程研究的主要内容
消息 信源 编码器 信号+干扰 信道 干扰 噪声源 • • • • • • 信息论基础:信息量和熵(第2章) 信源编码(第3章) 信道及其容量(第4章) 信道编码定理(第5章) 线性分组码(第6章) 率失真初步(第9章) 消息
信息定义
• 自信息
1 I ( xi ) log P ( xi )
先验概率p(xi) - 选择符号xi作为发送消息的概 率
• 条件自信息
1 I ( xi y j ) log p ( xi y j )
后验概率p(xi | yj) -接收端收到消息yj后而发送端 发的是xi 的概率
输 入码 字 消 息 先 消 息输 出 验 概 率 x1 x2 x3 x4 x5 x6 x7 000 001 010 011 100 101 110 1/8 1/8 1/8 1/8 1/8 1/8 1/8
信道编码发展
– – – – – 1950年汉明码 1960年卷积码的概率译码,Viterbi译码 1982年Ungerboeck编码调制技术 1993年Turbo编译码技术 目前,已构造出性能接近香农限的好码, 如Turbo(PCC,SCC,TPC,LDPC) 码
率失真信源编码发展
– 1959年,Shannon提出率失真函数和率失真 信源编码定理 – 1971年,伯格尔(T.Berger)给出更一般信 源的率失真编码定理 – 率失真信源编码理论是信源编码的核心问 题,是频带压缩、数据压缩的理论基础 – 目前,已提出多种限失真编码方案如音频、 视频:MPEG,JEPG等
– 1948年香农提出了无失真信源定理,给出了简 单的编码方法(香农编码) – 1952年Fano码,Huffman码 – 1968年埃利斯(P.Elias)提出了算术编码的初 步思路; 1976 Rissanen给出和发展了算术编码 1982年他和兰登(G.G.Langdon)一起将算术 编码系统实现化 – 1977,1978年Ziv和Lempel的LZ通用信源编算法
相关文档
最新文档